Hadoop-2.6.5集群安装配置
2017-05-11 14:39
363 查看
Hadoop本身的安装配置过程比较简单,主要精力在于服务器环境的配置上。
一、服务器基础软件
由于机器有限,我在笔记本上使用VMware虚拟了出两台虚拟机来跑。一台作为名字节点(nameNode),一台作为数据节点(dataNode),勉强用着。
虚拟机操作系统版本:RedHat Linux 6.4(64-bit)
需要安装的服务:openssh,包括服务端和客户端(一般都自带有)
二、设置静态IP
将两台虚拟机修改为局域网的静态IP,可以修改网络配置问,也可以直接在Linux图形界面进行配置。
网络地址配置文件:/etc/sysconfig/network-scripts/ifcfg-eth0
我的两台虚拟机静态IP为:
192.168.205.193 255.255.255.0 192.168.205.1
192.168.205.165 255.255.255.0 192.168.205.1
三、设置主机名
RedHat的主机名配置文件位置为 /etc/sysconfig/network下,修改此文件的HOSTNAME即可。如下图:
我将165的机器主机名设为namenode,193的机器主机名设为datanode1
四、设置hosts文件主机名与IP的映射
修改/etc/hosts文件,添加主机名与IP的映射,通过主机名访问服务器。
注意需要将每个节点的主机名都加入到hosts文件中。
五、配置ssh公钥免密登录
在Hadoop集群环境中,nameNode节点需要能够ssh无密码访问dataNode节点。
1、生成公钥秘钥对
使用命令:ssh-keygen -t rsa
如看到图形输出,说明生成成功。生成的秘钥文件在~/.ssh目录下。
使用命令进入该目录: cd ~/.ssh,看到两个秘钥文件:
私钥文件:id_rsa
公钥文件:id_rsa.pub
2、将公钥文件内容放入到authorized_keys中
使用命令:cat id_rsa.pub >> authorized_keys
目录下回生成authorized_keys文件。
3、分发authorized_keys文件到各dataNode节点
使用命令:scp authorized_keys root@dataNode:/root/.ssh/
也可以直接将该文件拷贝到dataNode对应的目录下。
ps:我自己的一个小技巧:先将一台虚拟机按照上述步骤配置好,然后直接克隆这台机器作为另外一台虚拟机,修改下ip和主机名即可。
4、验证无密码登录
使用命令:ssh root@dataNode1,看到如下输出即表示设置成功
六、安装Hadoop(每台机器都要安装配置)
去apache官网下载Hadoop-2.6.5版本,上传到服务器目录下(我的目录:/app)。
使用命令解压接口:tar -zxvf hadoop-2.6.5.tar.gz
七、配置Hadoop
进入配置文件目录 cd hadoop-2.6.5/etc/hadoop,修改如下配置文件:
1、core-site.xm
2、hdfs-site.xml
6、修改hadoop-env.sh和yarn-env.sh两个文件
在这两个文件中设置JAVA_HOME
到此为止,配置文件修改完成。
小技巧:修改完一台机器的配置后,将相关配置文件直接拷贝到其他节点的机器上覆盖即可。
八、格式化文件系统
使用命令:bin/hdfs namenode -format
看到最后输出如下内容表示成功:
(我只启动了nameNode,dataNode节点并不需要启动)
进入sbin目录下:
1、输入命令:./start-dfs.sh
2、输入命令:./start-yarn.sh
启动完成后使用jsp命令查看是否有进程,如下图:
到其他节点服务器上执行jps命令,也可看到进程:
会发现进程名字不一样,第一个图是在nameNode上的进程,第二个是dataNode上的进程
十、通过浏览器访问
1、地址:http://192.168.205.156:50070/
2、地址:http://192.168.205.156:8088/
至此,整个配置全部完成。
由于目前的配置表面上看都是成功的,实际使用中还存在什么问题尚不得知,如有不妥的地方,希望各位指点交流。
一、服务器基础软件
由于机器有限,我在笔记本上使用VMware虚拟了出两台虚拟机来跑。一台作为名字节点(nameNode),一台作为数据节点(dataNode),勉强用着。
虚拟机操作系统版本:RedHat Linux 6.4(64-bit)
需要安装的服务:openssh,包括服务端和客户端(一般都自带有)
二、设置静态IP
将两台虚拟机修改为局域网的静态IP,可以修改网络配置问,也可以直接在Linux图形界面进行配置。
网络地址配置文件:/etc/sysconfig/network-scripts/ifcfg-eth0
我的两台虚拟机静态IP为:
192.168.205.193 255.255.255.0 192.168.205.1
192.168.205.165 255.255.255.0 192.168.205.1
三、设置主机名
RedHat的主机名配置文件位置为 /etc/sysconfig/network下,修改此文件的HOSTNAME即可。如下图:
我将165的机器主机名设为namenode,193的机器主机名设为datanode1
四、设置hosts文件主机名与IP的映射
修改/etc/hosts文件,添加主机名与IP的映射,通过主机名访问服务器。
注意需要将每个节点的主机名都加入到hosts文件中。
五、配置ssh公钥免密登录
在Hadoop集群环境中,nameNode节点需要能够ssh无密码访问dataNode节点。
1、生成公钥秘钥对
使用命令:ssh-keygen -t rsa
如看到图形输出,说明生成成功。生成的秘钥文件在~/.ssh目录下。
使用命令进入该目录: cd ~/.ssh,看到两个秘钥文件:
私钥文件:id_rsa
公钥文件:id_rsa.pub
2、将公钥文件内容放入到authorized_keys中
使用命令:cat id_rsa.pub >> authorized_keys
目录下回生成authorized_keys文件。
3、分发authorized_keys文件到各dataNode节点
使用命令:scp authorized_keys root@dataNode:/root/.ssh/
也可以直接将该文件拷贝到dataNode对应的目录下。
ps:我自己的一个小技巧:先将一台虚拟机按照上述步骤配置好,然后直接克隆这台机器作为另外一台虚拟机,修改下ip和主机名即可。
4、验证无密码登录
使用命令:ssh root@dataNode1,看到如下输出即表示设置成功
六、安装Hadoop(每台机器都要安装配置)
去apache官网下载Hadoop-2.6.5版本,上传到服务器目录下(我的目录:/app)。
使用命令解压接口:tar -zxvf hadoop-2.6.5.tar.gz
七、配置Hadoop
进入配置文件目录 cd hadoop-2.6.5/etc/hadoop,修改如下配置文件:
1、core-site.xm
<configuration> <property> <name>hadoop.tmp.dir</name> <value>/appdata/hadoop/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://namenode:9000</value> </property> <property> <name>io.file.buffer.size</name> <value>4096</value> </property> </configuration>其中,/appdata/hadoop/tmp目录需要预先创建好,hdfs://namenode:9000中的namenode为你的nameNode节点主机名字,下同。
2、hdfs-site.xml
<configuration> <property> <name>dfs.nameservices</name> <value>hadoop-cluster1</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <value>namenode:50090</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:///appdata/hadoop/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:///appdata/hadoop/data</value> </property> <property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> </configuration>3、mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobtracker.http.address</name> <value>namenode:50030</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>namenode:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>namenode:19888</value> </property> </configuration>4、yarn-site.xml
<configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>namenode:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>namenode:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>namenode:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>namenode:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>namenode:8088</value> </property> </configuration>5、slaves
datanode1注意:如有多个dataNode节点,需要将每个dataNode节点添加进去,每行一个。我这里只有一个,所以只添加了一行。
6、修改hadoop-env.sh和yarn-env.sh两个文件
在这两个文件中设置JAVA_HOME
到此为止,配置文件修改完成。
小技巧:修改完一台机器的配置后,将相关配置文件直接拷贝到其他节点的机器上覆盖即可。
八、格式化文件系统
使用命令:bin/hdfs namenode -format
看到最后输出如下内容表示成功:
INFO namenode.NameNode: SHUTDOWN_MSG: ************************************************************ SHUTDOWN_MSG: Shutting down NameNode at nameNode/127.0.0.1 ************************************************************/九、启动Hadoop
(我只启动了nameNode,dataNode节点并不需要启动)
进入sbin目录下:
1、输入命令:./start-dfs.sh
2、输入命令:./start-yarn.sh
启动完成后使用jsp命令查看是否有进程,如下图:
到其他节点服务器上执行jps命令,也可看到进程:
会发现进程名字不一样,第一个图是在nameNode上的进程,第二个是dataNode上的进程
十、通过浏览器访问
1、地址:http://192.168.205.156:50070/
2、地址:http://192.168.205.156:8088/
至此,整个配置全部完成。
由于目前的配置表面上看都是成功的,实际使用中还存在什么问题尚不得知,如有不妥的地方,希望各位指点交流。
相关文章推荐
- FreeBSD下安装配置Hadoop集群(二)
- Hadoop集群内lzo的安装与配置
- FreeBSD下安装配置Hadoop集群(四)
- Hadoop集群(第3期)_VSFTP安装配置
- hadoop集群内lzo的安装与配置
- Hadoop集群配置【五、Loz和Hadoop-gpl-compression安装】
- 完全分布模式hadoop集群安装配置之二 添加新节点组成分布式集群
- Hadoopz安装与配置-集群(2)
- hadoop集群的安装、配置
- HBase入门笔记(三)-- 完全分布模式Hadoop集群安装配置
- Hadoop集群安装 (2) 配置conf/core-site.xml
- hadoop集群环境安装中的hosts 配置问题
- Hadoop集群安装 (5) 配置job queue_conf/mapred-queues.xml
- Hadoop集群(第1期)_CentOS安装配置
- FreeBSD下安装配置Hadoop集群
- 完全分布模式hadoop集群安装配置之一安装第一个节点
- Hadoop0.21在CentOS4.X上集群安装配置
- FreeBSD下安装配置Hadoop集群(三)
- FreeBSD下安装配置Hadoop集群(Hive)
- Hadoop集群配置【六、thrift安装】