Hadoop学习之HBase的集群环境搭建
2015-04-04 12:11
627 查看
HBase的集群环境搭建
该集成环境是在伪分布搭建的基础上搭建
1. 修改原来的伪分布hadoop1上的hbase的配置文件
待修改的文件:hbase-env.sh、hbase-site.xml、regionservers
使用搭建的zookeeper集群环境,因此hbase自带的zookeeper设置为false,不启动。
将zookeeper集群所在的主机名,全部写进去,用逗号分开。
添加搭建hbase集群的从节点主机名,每个主机名一行
2. 复制hadoop1中的hbase文件夹到hadoop2和hadoop3等其他从节点。
3. 复制环境变量配置文件(profile)到其他从节点
4. 启动hbase集群
要首先启动hadoop和zookeeper,然后启动hbase
#start-all.sh 在hadoop1上
# zkServer.sh start 每台机器上都要启动
#start-hbase.sh 在hadoop1上
该集成环境是在伪分布搭建的基础上搭建
1. 修改原来的伪分布hadoop1上的hbase的配置文件
#cd /usr/local/hbase/conf/
待修改的文件:hbase-env.sh、hbase-site.xml、regionservers
#vim hbase-env.sh
使用搭建的zookeeper集群环境,因此hbase自带的zookeeper设置为false,不启动。
#vim hbase-site.xml
将zookeeper集群所在的主机名,全部写进去,用逗号分开。
#vim regionservers
添加搭建hbase集群的从节点主机名,每个主机名一行
2. 复制hadoop1中的hbase文件夹到hadoop2和hadoop3等其他从节点。
# scp -r hbase hadoop2:/usr/local/ # scp -r hbase hadoop3:/usr/local/
3. 复制环境变量配置文件(profile)到其他从节点
# scp -r /etc/profile hadoop2:/usr/local/
# scp -r /etc/profile hadoop3:/usr/local/
4. 启动hbase集群
要首先启动hadoop和zookeeper,然后启动hbase
#start-all.sh 在hadoop1上
# zkServer.sh start 每台机器上都要启动
#start-hbase.sh 在hadoop1上
相关文章推荐
- 伪分布式集群环境hadoop、hbase、zookeeper搭建(全)
- Hadoop,HBase集群环境搭建的问题集锦(四)
- Hadoop,HBase集群环境搭建的问题集锦(四)
- HBase 集群环境搭建-基于Hadoop2.2.0
- Hadoop集群安装&Hbase实验环境搭建【1】
- hadoop(八) - hbase集群环境搭建
- Hadoop2.7.0学习——Hbase-0.98.13集群搭建
- hadoop、zookeeper、hbase、spark集群环境搭建
- spark学习1--centOS7.2下基于hadoop2.7.3的spark2.0集群环境搭建
- 配置密码分布式集群环境hadoop、hbase、zookeeper搭建(全)
- VirtualBox+CentOs虚拟集群搭建配置hadoop2.2.0学习环境
- Hadoop 、Hbase、zookeeper 集群环境搭建
- DayDayUP_大数据学习课程[1]_hadoop2.6.0完全分布式集群环境和伪分布式集群搭建
- hadoop、zookeeper、hbase、spark集群环境搭建
- 分布式集群环境hadoop1.2.0、hbase0.94.4、zookeeper、elasticsearch搭建2
- Hadoop,HBase集群环境搭建的问题集锦(三)
- Hadoop+Hbase+Zookeeper集群环境搭建
- Hadoop,HBase集群环境搭建的问题集锦(一)
- 伪分布式集群环境hadoop、hbase、zookeeper搭建(全)
- [置顶] hadoop、zookeeper、hbase、spark集群环境搭建