HBase-1.3.0+zookeeper-3.4.10+hadoop-2.7.3完全分布式安装
2017-05-24 22:49
567 查看
环境:Linux16.0.4,Hadoop-2.7.3,zookeeper-3.4.10,HBase-1.3.0
这里,我已经安装好了hadoop完全分布式集群(不会安装的网页可以在网上百度,有很多教程),节点为:
Master(namenode) ip:192.168.8.4
Slave1(datanode) ip:192.168.8.5
Slave2(datanode) ip:192.168.8.6
如果不采用hbase自带的zookeeper,则安装hbaser之前需要先安装zookeeper
一、zookeeper-3.4.10完全分布式安装
(1)解压文件
ubuntuserver@Master:~$ tar -zxvf zookeeper-3.4.10.tar.gz
(2)移动文件位置
ubuntuserver@Master:~$ sudo mv zookeeper-3.4.10 /usr/local
(3)修改hosts文件内容如下:
ubuntuserver@Master:~$ cat /etc/hosts
127.0.0.1 localhost
192.168.8.4 Master
192.168.8.5 Slave1
192.168.8.6 Slave2
这里由于我已经在安装hadoop集群的时候已经是修改好了的,所以只是显示出来作为提醒不要忘了修改。
(4)修改zookeeper配置文件
1.复制zoo_sample.cfg文件为zoo.cfg文件
ubuntuserver@Master:/usr/local/zookeeper-3.4.10/conf$ sudo cp zoo_sample.cfg zoo.cfg
2.修改zoo.cfg文件参数如下
tickTime=2000
initLimit=5
syncLimit=2
dataDir=/usr/local/storage/zookeeper
clientPort=2181
server.1=Master:2888:3888
server.2=Slave1:2888:3888
server.3=Slave2:2888:3888
(5)创建dataDir目录并设置权限
ubuntuserver@Master:~$ sudo mkdir -p /usr/local/storage/zookeeper
ubuntuserver@Master:~$ cd /usr/local
ubuntuserver@Master:/usr/local$ sudo chown -R ubuntuserver ./storage
同样在Slave1与Slave2中进行该步操作
(6)远程分发安装文件
ubuntuserver@Master:/usr/local$ scp -r zookeeper-3.4.10 Slave1:~
ubuntuserver@Master:/usr/local$ scp -r zookeeper-3.4.10 Slave2:~
在Slave1与Slave2中将安装文件mv 到/usr/local
(7)设置myid
conf/zoo.cfg文件中配置的server.X中X为什么数字,则myid文件中就输入这个数字
ubuntuserver@Master:/usr/local$ echo "1" > ./storage/zookeeper/myid
ubuntuserver@Slave1:/usr/local$ echo "2" > ./storage/zookeeper/myid
ubuntuserver@Slave2:/usr/local$ echo "3" > ./storage/zookeeper/myid
(8)设置环境变量
ubuntuserver@Master:sudo vim /etc/profile
export ZOOKEEPER_HOME=/usr/local/zookeeper-3.4.10
export PATH=$ZOOKEEPER_HOME/bin:$PATH
ubuntuserver@Master:source /etc/profile
同样在Slave1与Slave2中设置环境变量
(9)启动zookeeper集群
对每一个节点进行启动
ubuntuserver@Master:~$ zkServer.sh start
ubuntuserver@Slave1:~$ zkServer.sh start
ubuntuserver@Slave2:~$ zkServer.sh start
对每一个节点执行zkServer.sh status命令可以查看该节点是leader还是follower
二、hbase-1.3.0完全分布式安装
(1)解压并移动文件
ubuntuserver@Master:~$ hbase-1.3.0-bin.tar.gz
ubuntuserver@Master:~$sudo mv hbase-1.3.0 /usr/local
(2)修改hbase-site.xml文件
修改内容如下:
(3)创建hbase目录
ubuntuserver@Master:~$ hadoop fs -mkdir /hbase
(4)修改regionservers文件
将文件内容修改为与hadoop的slaves文件一样的内容。我这里的内容修改成了
Slave1
Slave2
(5)修改hbase-env.sh
找到#export JAVA_HOME=**************这行。修改为自己的JAVA_HOME,如
export JAVA_HOME=/usr/local/jdk1.8.0_111
同时
设置export HBASE_MANAGES_ZK=false
(8)替换hbase-1.3.0/lib文件夹下面的hadoop包
如果hadoop包与hadoop-2.7.3下面的不一致,则要将hadoop-2.7.3下面的包拷贝到hbase-1.3.0/lib下面。由于hbase-1.3.0是基于hadoop-2.5.1的,所以要先 删 除。
1.删除hbase-1.3.0/lib下面的hadoop包
ubuntuserver@Master:/usr/local/hbase-1.3.0/lib$ rm -r hadoop*.jar
2.拷贝hadoop-2.7.3下面的hadoop包到hbase-1.3.0/lib下面
ubuntuserver@Master:~$ find /usr/local/hadoop/share/hadoop -name "hadoop*jar" | xargs -i cp {} /usr/local/hbase-1.3.0/lib
(9)修改环境变量
export HBASE_HOME=/usr/local/hbase-1.3.0
export PATH=$HBASE_HOME/bin:$PATH
三个节点都修改
(10)分发hbase-1.3.0到其他节点
ubuntuserver@Master:/usr/local$ scp -r hbase-1.3.0 Slave1:~
ubuntuserver@Master:/usr/local$ scp -r hbase-1.3.0 Slave2:~
将hbase-1.3.0移动到/usr/local下面
(11)重启三个节点
(12)依次启动hadoop集群,zookeeper集群(三个节点依次启动),hbase集群(start-hbase.sh)
即在Master执行:ubuntuserver@Master:~$ start-dfs.sh
在三个节点(Master,Slave1,Slave2)执行:
ubuntuserver@Master:~$ zkServer.sh start
ubuntuserver@Slave1:~$ zkServer.sh start
ubuntuserver@Slave2:~$ zkServer.sh start
然后在Master执行:ubuntuserver@Master:~$ start-hbase.sh
在Master输入:
ubuntuserver@Master:~$ jps
2339 QuorumPeerMain
2214 SecondaryNameNode
2598 Jps
1998 NameNode
2495 HMaster
如果看到HMaster与QuorumPeerMain表示Master启动正常。
在Slave1与Slave2输入:
ubuntuserver@Slave1:~$ jps
2065 QuorumPeerMain
2168 HRegionServer
2266 Jps
1935 DataNode
看到QuorumPeerMain与HRegionServer表示启动正常。
这里,我已经安装好了hadoop完全分布式集群(不会安装的网页可以在网上百度,有很多教程),节点为:
Master(namenode) ip:192.168.8.4
Slave1(datanode) ip:192.168.8.5
Slave2(datanode) ip:192.168.8.6
如果不采用hbase自带的zookeeper,则安装hbaser之前需要先安装zookeeper
一、zookeeper-3.4.10完全分布式安装
(1)解压文件
ubuntuserver@Master:~$ tar -zxvf zookeeper-3.4.10.tar.gz
(2)移动文件位置
ubuntuserver@Master:~$ sudo mv zookeeper-3.4.10 /usr/local
(3)修改hosts文件内容如下:
ubuntuserver@Master:~$ cat /etc/hosts
127.0.0.1 localhost
192.168.8.4 Master
192.168.8.5 Slave1
192.168.8.6 Slave2
这里由于我已经在安装hadoop集群的时候已经是修改好了的,所以只是显示出来作为提醒不要忘了修改。
(4)修改zookeeper配置文件
1.复制zoo_sample.cfg文件为zoo.cfg文件
ubuntuserver@Master:/usr/local/zookeeper-3.4.10/conf$ sudo cp zoo_sample.cfg zoo.cfg
2.修改zoo.cfg文件参数如下
tickTime=2000
initLimit=5
syncLimit=2
dataDir=/usr/local/storage/zookeeper
clientPort=2181
server.1=Master:2888:3888
server.2=Slave1:2888:3888
server.3=Slave2:2888:3888
(5)创建dataDir目录并设置权限
ubuntuserver@Master:~$ sudo mkdir -p /usr/local/storage/zookeeper
ubuntuserver@Master:~$ cd /usr/local
ubuntuserver@Master:/usr/local$ sudo chown -R ubuntuserver ./storage
同样在Slave1与Slave2中进行该步操作
(6)远程分发安装文件
ubuntuserver@Master:/usr/local$ scp -r zookeeper-3.4.10 Slave1:~
ubuntuserver@Master:/usr/local$ scp -r zookeeper-3.4.10 Slave2:~
在Slave1与Slave2中将安装文件mv 到/usr/local
(7)设置myid
conf/zoo.cfg文件中配置的server.X中X为什么数字,则myid文件中就输入这个数字
ubuntuserver@Master:/usr/local$ echo "1" > ./storage/zookeeper/myid
ubuntuserver@Slave1:/usr/local$ echo "2" > ./storage/zookeeper/myid
ubuntuserver@Slave2:/usr/local$ echo "3" > ./storage/zookeeper/myid
(8)设置环境变量
ubuntuserver@Master:sudo vim /etc/profile
export ZOOKEEPER_HOME=/usr/local/zookeeper-3.4.10
export PATH=$ZOOKEEPER_HOME/bin:$PATH
ubuntuserver@Master:source /etc/profile
同样在Slave1与Slave2中设置环境变量
(9)启动zookeeper集群
对每一个节点进行启动
ubuntuserver@Master:~$ zkServer.sh start
ubuntuserver@Slave1:~$ zkServer.sh start
ubuntuserver@Slave2:~$ zkServer.sh start
对每一个节点执行zkServer.sh status命令可以查看该节点是leader还是follower
二、hbase-1.3.0完全分布式安装
(1)解压并移动文件
ubuntuserver@Master:~$ hbase-1.3.0-bin.tar.gz
ubuntuserver@Master:~$sudo mv hbase-1.3.0 /usr/local
(2)修改hbase-site.xml文件
修改内容如下:
<configuration> <property> <name>hbase.rootdir</name> <value>hdfs://192.168.8.4:9000/hbase</value><!--这里要和hadoop的core-site.xml中Master及端口号一样--> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.master</name><!--不要写成了hbase.master.port了--> <value>hdfs://192.168.8.4:60000</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>Slave1,Slave2</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/usr/local/storage/zookeeper</value> </property> </configuration>
(3)创建hbase目录
ubuntuserver@Master:~$ hadoop fs -mkdir /hbase
(4)修改regionservers文件
将文件内容修改为与hadoop的slaves文件一样的内容。我这里的内容修改成了
Slave1
Slave2
(5)修改hbase-env.sh
找到#export JAVA_HOME=**************这行。修改为自己的JAVA_HOME,如
export JAVA_HOME=/usr/local/jdk1.8.0_111
同时
设置export HBASE_MANAGES_ZK=false
(8)替换hbase-1.3.0/lib文件夹下面的hadoop包
如果hadoop包与hadoop-2.7.3下面的不一致,则要将hadoop-2.7.3下面的包拷贝到hbase-1.3.0/lib下面。由于hbase-1.3.0是基于hadoop-2.5.1的,所以要先 删 除。
1.删除hbase-1.3.0/lib下面的hadoop包
ubuntuserver@Master:/usr/local/hbase-1.3.0/lib$ rm -r hadoop*.jar
2.拷贝hadoop-2.7.3下面的hadoop包到hbase-1.3.0/lib下面
ubuntuserver@Master:~$ find /usr/local/hadoop/share/hadoop -name "hadoop*jar" | xargs -i cp {} /usr/local/hbase-1.3.0/lib
(9)修改环境变量
export HBASE_HOME=/usr/local/hbase-1.3.0
export PATH=$HBASE_HOME/bin:$PATH
三个节点都修改
(10)分发hbase-1.3.0到其他节点
ubuntuserver@Master:/usr/local$ scp -r hbase-1.3.0 Slave1:~
ubuntuserver@Master:/usr/local$ scp -r hbase-1.3.0 Slave2:~
将hbase-1.3.0移动到/usr/local下面
(11)重启三个节点
(12)依次启动hadoop集群,zookeeper集群(三个节点依次启动),hbase集群(start-hbase.sh)
即在Master执行:ubuntuserver@Master:~$ start-dfs.sh
在三个节点(Master,Slave1,Slave2)执行:
ubuntuserver@Master:~$ zkServer.sh start
ubuntuserver@Slave1:~$ zkServer.sh start
ubuntuserver@Slave2:~$ zkServer.sh start
然后在Master执行:ubuntuserver@Master:~$ start-hbase.sh
在Master输入:
ubuntuserver@Master:~$ jps
2339 QuorumPeerMain
2214 SecondaryNameNode
2598 Jps
1998 NameNode
2495 HMaster
如果看到HMaster与QuorumPeerMain表示Master启动正常。
在Slave1与Slave2输入:
ubuntuserver@Slave1:~$ jps
2065 QuorumPeerMain
2168 HRegionServer
2266 Jps
1935 DataNode
看到QuorumPeerMain与HRegionServer表示启动正常。
相关文章推荐
- hadoop-2.7.3 + hive-2.3.0 + zookeeper-3.4.8 + hbase-1.3.1 完全分布式安装配置
- 完全分布式安装Hadoop,Hive,Hbase,Hwi,Zookeeper
- Hadoop2.7.3+Hbase-1.2.6完全分布式安装部署
- 搭建3个节点的hadoop集群(完全分布式部署)--3 zookeeper与hbase安装
- Hadoop2.7.3+Hbase-1.2.6完全分布式安装部署
- 完全分布式安装Hadoop,Hive,Hbase,Hwi,Zookeeper-500行说明
- hadoop-2.7.3 + hive-2.3.0 + zookeeper 4000 -3.4.8 + hbase-1.3.1 完全分布式安装配置
- 基于hadoop集群的Hive1.2.1、Hbase1.2.2、Zookeeper3.4.8完全分布式安装
- hadoop,zookeeper,hbase搭建完全分布式集群回忆录
- Hbase笔记四:Hbase基于Hadoop的完全分布式安装
- hadoop-2.6.0+zookeeper-3.4.6+hbase-1.0.0+hive-1.1.0完全分布式集群HA部署
- 【心血之作】linux虚拟机下安装配置Hadoop(完全分布式)生态环境(hadoop2.2.0,HBase0.98,Hive0.13(连接oracle),sqoop1.4.4(连接oracle)
- hadoop+hbase+zookeeper完全分布式环境搭建
- 大数据: 完全分布式Hadoop集群-HBase安装
- Hadoop2.4.0-Hbase-098.9-完全分布式安装部署
- hadoop2.6整合hbase 1.1.2完全分布式安装
- hadoop2.7.3完全分布式安装5台(namenode一台,secondarynamenode一台,datanode三台)
- Hbase完全分布式集群安装配置(Hbase1.0.0,Hadoop2.6.0)
- hadoop+zookeeper+hbase 完全安装手册
- hbase0.20.1,hadoop 1.0.0 完全分布式安装过程