hadoop大数据平台手动搭建(四)-hbase
2017-03-31 14:09
751 查看
hbase也是基于HDFS的.本节还是安装完全分布模式。由于各个节点时间误差太多,hbase启动会失败。所以先前已经安装了NTP时间同步服务。
跟hive一样将/opt/hbase-1.2.0-cdh5.8.0.tar.gz解压
tar -zxvf hbase-1.2.0-cdh5.8.0.tar.gz
1. 修改hbase-1.2.0-cdh5.8.0\conf下的hbase_env.sh
添加如下配置
export JAVA_HOME=/usr/java/jdk1.7.0_79
#申明使用自带的Zookeeper.否则可安装单独的Zookeeper
export HBASE_MANAGES_ZK=true
2.修改hbase-1.2.0-cdh5.8.0\conf下的regionservers
slave1
slave2
也就是文件要分发到这两个节点上。
3. 配置环境变量
/etc/profile中加入
export HBASE_HOME=/opt/hbase-1.2.0-cdh5.8.0
export PATH=$HBASE_HOME/bin:$PATH
环境变量生效执行
source /etc/profile
4.配置hbase-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.zoopkeeper.property.dataDir</name>
<value>/home/hadoop/software/zookeeper</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
<description> 连接到zookeeper的端口,默认是2181</description>
</property>
<property>
<name>hbase.master</name>
<value>master</value>
<description>指定 hbase 集群主控节点</description>
</property>
<property><name>hbase.thrift.support.proxyuser</name><value>true</value></property>
<property><name>hbase.regionserver.thrift.http</name><value>true</value></property>
</configuration>
5.拷贝master中的/opt/hbase-1.2.0-cdh5.8.0/目录到slave1,slave2
scp -r /opt/hbase-1.2.0-cdh5.8.0/ hadoop@slave1:/opt
scp -r /opt/hbase-1.2.0-cdh5.8.0/ hadoop@slave2:/opt
6.启动/opt/hbase-1.2.0-cdh5.8.0/bin/start-hbase.sh
主节点启动
大小: 40.9 KB
大小: 10.2 KB
大小: 10.8 KB
查看图片附件
跟hive一样将/opt/hbase-1.2.0-cdh5.8.0.tar.gz解压
tar -zxvf hbase-1.2.0-cdh5.8.0.tar.gz
1. 修改hbase-1.2.0-cdh5.8.0\conf下的hbase_env.sh
添加如下配置
export JAVA_HOME=/usr/java/jdk1.7.0_79
#申明使用自带的Zookeeper.否则可安装单独的Zookeeper
export HBASE_MANAGES_ZK=true
2.修改hbase-1.2.0-cdh5.8.0\conf下的regionservers
slave1
slave2
也就是文件要分发到这两个节点上。
3. 配置环境变量
/etc/profile中加入
export HBASE_HOME=/opt/hbase-1.2.0-cdh5.8.0
export PATH=$HBASE_HOME/bin:$PATH
环境变量生效执行
source /etc/profile
4.配置hbase-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.zoopkeeper.property.dataDir</name>
<value>/home/hadoop/software/zookeeper</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
<description> 连接到zookeeper的端口,默认是2181</description>
</property>
<property>
<name>hbase.master</name>
<value>master</value>
<description>指定 hbase 集群主控节点</description>
</property>
<property><name>hbase.thrift.support.proxyuser</name><value>true</value></property>
<property><name>hbase.regionserver.thrift.http</name><value>true</value></property>
</configuration>
5.拷贝master中的/opt/hbase-1.2.0-cdh5.8.0/目录到slave1,slave2
scp -r /opt/hbase-1.2.0-cdh5.8.0/ hadoop@slave1:/opt
scp -r /opt/hbase-1.2.0-cdh5.8.0/ hadoop@slave2:/opt
6.启动/opt/hbase-1.2.0-cdh5.8.0/bin/start-hbase.sh
主节点启动
大小: 40.9 KB
大小: 10.2 KB
大小: 10.8 KB
查看图片附件
相关文章推荐
- hadoop大数据平台手动搭建-hbase
- hadoop大数据平台手动搭建(二)-hadoop
- hadoop大数据平台手动搭建(三)-hive
- hadoop大数据平台手动搭建(七)-hue
- hadoop大数据平台手动搭建(五)-sqoop
- hadoop大数据平台手动搭建(八)HDFS High Availability Using the Quorum Journal Manager
- 大数据平台搭建-hadoop/hbase集群的搭建
- hadoop大数据平台手动搭建(六)-spark
- hadoop大数据平台手动搭建(一)-ssh,ntp
- Hadoop数据分析平台搭建
- 揭秘FaceBook Puma演变及发展——FaceBook公司的实时数据分析平台是建立在Hadoop 和Hive的基础之上,这个根能立稳吗?hive又是sql的Map reduce任务拆分,底层还是依赖hbase和hdfs存储
- Hadoop数据分析平台搭建
- 大数据平台搭建笔记一:hadoop
- 大数据平台搭建(hadoop+spark)
- Hadoop + Zookeeper + HBase 平台搭建(二)
- 李锐_hbase上搭建广告实时数据处理平台
- 大数据之Hadoop平台(四)Centos6.5(64bit)Hadoop2.5.1、Zookeeper3.4.6、Hbase0.98.6.1安装使用过程中错误及解决方法
- 大数据应用之Windows平台Hbase客户端Eclipse开发环境搭建
- 基于Hadoop、HBase的数据分析挖掘管理平台-舆情预警监控系统 (系统总体设计图)
- 大数据平台安装测试(1)centos7.1 docker mesos tachyon hadoop (myriad? yarn?)spark hbase speaksql 选型分析