您的位置:首页 > 运维架构

Hadoop之Hbase------>Hbase集群搭建

2017-01-03 09:20 381 查看
一、环境准备

1.zookeeper集群已经成功搭建 ------->zookeeper集群搭建

2.hadoop集群已经成功搭建     ------->hadoop集群搭建

3.hbase安装包   下载地址:http://apache.fayea.com/hbase/stable/

二、环境搭建

1.上传hbase安装包

2.解压

3.配置hbase集群,要修改3个文件(首先zk集群已经安装好了)

注意:要把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下

3.1修改hbase-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_45

//告诉hbase使用自己的的zk
export HBASE_MANAGES_ZK=false (表示告诉hbase使用外部的zk)

3.2修改 hbase-site.xml

vim hbase-site.xml

<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
        <property>
                <name>hbase.rootdir</name>
                <value>hdfs://ns1/hbase</value>
        </property>
<!-- 指定hbase是分布式的 -->
        <property>
                <name>hbase.cluster.distributed</name>
                <value>true</value>
        </property>
<!-- 指定zk的地址,多个用“,”分割 -->
        <property>
                <name>hbase.zookeeper.quorum</name>
                <value>hadoop01:2181,hadoop02:2181,hadoop03:2181</value>
        </property>
</configuration>
3.3 修改regionservers文件

Hregionservers------>hbase的小弟,类似slaves

vim regionservers

hadoop03
hadoop04
hadoop05

3.2拷贝hbase到其他节点(为了方便可以删除docs下文档内容)

scp -r /weekend/hbase-0.96.2-hadoop2/ hadoop04:/weekend/
scp -r /weekend/hbase-0.96.2-hadoop2/ hadoop05:/weekend/

4.将配置好的HBase拷贝到每一个节点并同步时间。

5.启动所有的hbase
分别启动zk
./zkServer.sh start
启动hbase集群
start-dfs.sh
启动hbase,在主节点上运行:
start-hbase.sh

6.通过浏览器访问hbase管理页面
192.168.19.128:60010

7.为保证集群的可靠性,要启动多个HMaster

hbase-daemon.sh start master
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息