Hadoop全分布式集群模式的搭建实验
2013-05-02 17:52
423 查看
1、实验环境:
操作系统:CentOS6.3 x86_64 desktop主机名称 | IP地址 | 实验角色 | 备注 |
master | 192.168.1.85 | Namenode-first | |
slave | 192.168.1.81 | Namenode-second | |
Node1 | 192.168.1.88 | Datanode | |
Node2 | 192.168.1.89 | Datanode | |
Node3 | 192.168.1.90 | Datanode | 用于集群维护节点添加实验 |
2、前期准备:
准备需要的软件(hadoop)3、开始安装(需要在所有的机器上以root执行)
第一步、关闭防火墙IPtables[root@localhost ~]# service iptables stop
第二步、更改主机名称
()
HOSTNAME=master #主机 192.168.1.85
HOSTNAME=slave #主机 192.168.1.81
HOSTNAME=node1 #主机 192.168.1.88
HOSTNAME=node2 #主机 192.168.1.89
[root@localhost ~]#注意:都有[root@ ~]#
vi /etc/hosts
删除原有的添加以下内容) 192.168.1.85 master 192.168.1.81 slave 192.168.1.88 node1 192.168.1.89 node2 :wq #保存退出 |
#slave主机上测试master主机
PING master (192.168.80.128) 56(84) bytes of data. 64 bytes from master (192.168.80.128): icmp_seq=1 ttl=64 time=1.88 ms |
PING slave (192.168.80.131) 56(84) bytes of data. 64 bytes from slave (192.168.80.131): icmp_seq=1 ttl=64 time=0.753 ms |
4、openssh和rsync的安装
注意:CentOS6.3 x86_64系统默认安装了openssh和rsync,此处我们只是为了验证,可以不用执行下面的操作[root@master ~]# service sshd status
openssh-daemon (pid 1717) 正在运行...
[root@master ~]# rpm -qa | grep rsync
rsync-3.0.6-9.el6.x86_64
5、创建Hadoop使用账号(所有节点上都需要创建该账号,并提升权限为root)
[root@master ~]# passwd hadoop
更改用户 hadoop 的密码 。 新的 密码: 无效的密码: 它基于字典单词 重新输入新的 密码: passwd: 所有的身份验证令牌已经成功更新。 |
打开下面47、48、49行首的注释:
RSAAuthentication yes #启用RSA认证 PubkeyAuthentication yes #启用公用和私钥配对认证方式 AuthorizedKeysFile .ssh/authorized_keys #所有目标主机公用文件路径 :wq 保存,退出 |
[root@master ~]# su - hadoop
4、创建ssh密钥([hadoop@master
~]$ ssh-keygen -t rsa
Generating public/private rsa key pair. Enter file in which to save the key (/home/hadoop/.ssh/id_rsa): Created directory '/home/hadoop/.ssh'. Enter passphrase (empty for no passphrase): Enter same passphrase again: Your identification has been saved in /home/hadoop/.ssh/id_rsa. Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub. The key fingerprint is: 48:f4:29:86:4a:15:13:2b:24:c0:eb:02:db:41:1b:78 hadoop@master The key's randomart image is: +--[ RSA 2048]----+ |=.. =o. | |.+E. = . . | | o+oo + o | |.ooo o o | |oo.. . S | |o.. | |. | | | | | +-----------------+ |
~]# vim /etc/ssh/sshd_config
(打开如下47、48、49行的注释)
RSAAuthentication yes PubkeyAuthentication yes AuthorizedKeysFile .ssh/authorized_keys :wq 保存退出 |
[@slave ~]# ssh slave
Last login: Fri Apr 12 21:00:30 2013 from slave
备注:其他节点(node1、node2)的操作同上,使之能够无需验证登陆本机和其他所有节点。
7、安装Sun JDK (JAVA环境)
[root@master ~]# java -versionjava version "1.6.0_24" OpenJDK Runtime Environment (IcedTea6 1.11.11) (rhel-1.61.1.11.11.el6_4-x86_64) OpenJDK 64-Bit Server VM (build 20.0-b12, mixed mode) |
[root@master ~]# rpm -e java-1.6.0-openjdk-1.6.0.0-1.61.1.11.11.el6_4.x86_64 --nodeps
④ 上传并安装sun版本的jdk
[root@master ~]# java -version
java version "1.7.0_17" Java(TM) SE Runtime Environment (build 1.7.0_17-b02) Java HotSpot(TM) 64-Bit Server VM (build 23.7-b01, mixed mode) |
[root@master hadoop]# ls
[root@master hadoop]# chown hadoop.hadoop -R hadoop-1.1.2 #更改目录属主
注意:软件包的上传,我们使用的是SecureCRT自带的工具
9、配置Hadoop
此处我们配置[root@master ~]# mkdir -p /usr/hadoop/tmp[root@master~]# chmod /usr/hadoop/tmp[root@master hadoop]# chown hadoop.hadoop -R /usr/hadoop/
2、配置masters文件,指定备用namenode节点
[root@master hadoop]# vi [root@master conf]# vi slaves
192.168.1.88 #node1 192.168.1.89 #node2 :wq 退出并保存 |
4、设置core-site.xml文件
/usr/hadoop/tmp</value>
</property>
<!-- file system properties -->
<property>
<name>fs.default.name</name>
<value>master[root@master conf]# vi hdfs-site.xml
注意:配置的备份方式默认是3,这里只有两个datanode(slave),所以数据最大复制2份
<configuration> <property> <name>dfs.replication</name> <value>[root@master conf]# vi mapred-site.xml 修改后内容如下:
文件夹。 [root@node1 hadoop]# ll /usr/hadoop/tmp/
1、 <span color:="" rgb(51,102,255);="" font-size:="" 10.5pt;="" font-weight:="" normal;="" mso-spacerun:="" 'yes';="" mso-shading:="" rgb(255,255,255)"="" style="padding: 0px; margin: 0px; font-family: Verdana;">"http:192.168.:50030" 访问"1.85" 12、停止 hadoop集群
转自:http://hongxin.blog.51cto.com/2464891/1189499 |
相关文章推荐
- hadoop2.5.2的本地模式、伪分布式集群、分布式集群和HDFS系统的高可用的环境搭建
- windows eclipse hadoop 集群开发环境搭建(分布式模式)
- Ubuntu 上搭建伪分布式模式Hadoop集群 步骤与分析
- 基于Hadoop分布式集群YARN模式下的TensorFlowOnSpark平台搭建
- Hadoop分布式集群搭建(二 )完全分布式模式
- 基于Hadoop分布式集群YARN模式下的TensorFlowOnSpark平台搭建
- 4台Hadoop集群完全分布式搭建
- Hadoop上路_14-Hadoop2.3.0的分布式集群搭建
- Hadoop、ZooKeeper、Hive、HBase 七节点分布式集群搭建
- Hadoop2.7.4 全分布式模式环境搭建
- Hadoop分布式集群环境搭建(三节点)
- hadoop学习第二天-了解HDFS的基本概念&&分布式集群的搭建&&HDFS基本命令的使用
- 用 KVM 搭建web集群实验笔记 - LVS和Keeplived负载均衡(DR模式)
- HADOOP 2.x 完全分布式集群环境搭建
- Ubuntu14.04+hadoop2.5.2完全分布式集群搭建
- ubuntu 虚拟机 完全分布式 hadoop集群搭建 hive搭建 ha搭建
- 搭建3个节点的hadoop集群(完全分布式部署)5 flume安装及flume导数据到hdfs
- (配置Hadoop2.x 环境搭建)完全分布式集群
- hadoop完全分布式集群搭建全部流程之一:hadoop和java安装
- 大数据教程(三)—— Hadoop集群分布式坏境搭建