基于centos6.5 hbase 集群搭建
2017-03-08 00:14
363 查看
注意本章内容是在上一篇文章“基于centos6.5 hadoop 集群搭建”基础上创建的
1.上传hbase安装包 hbase-0.96.2-hadoop2 我的目录存放在/usr/hadoop/hbase-0.96.2-hadoop2
2.解压
3.配置hbase集群,要修改3个文件(首先zk集群已经安装好了)
注意:要把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下
3.1修改hbase-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_79
//告诉hbase使用外部的zk
export HBASE_MANAGES_ZK=false
vim hbase-site.xml
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://ns1/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zk的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop4:2181,hadoop5:2181,hadoop6:2181</value>
</property>
</configuration>
vim regionservers
hadoop3
hadoop4
hadoop5
hadoop6
3.2拷贝hbase到其他节点
scp -r /usr/hadoop/hbase-0.96.2-hadoop2/ hadoop2:/usr/hadoop/
scp -r /usr/hadoop/hbase-0.96.2-hadoop2/ hadoop3:/usr/hadoop/
scp -r /usr/hadoop/hbase-0.96.2-hadoop2/ hadoop4:/usr/hadoop/
scp -r /usr/hadoop/hbase-0.96.2-hadoop2/ hadoop5:/usr/hadoop/
scp -r /usr/hadoop/hbase-0.96.2-hadoop2/ hadoop6:/usr/hadoop/
4.将配置好的HBase拷贝到每一个节点并同步时间。
5.启动所有的hbase
分别启动zk
./zkServer.sh start
启动hbase集群
start-dfs.sh
start-hbase.sh
6.通过浏览器访问hbase管理页面
192.168.100.101:60010
7.为保证集群的可靠性,要启动多个HMaster,在hadooop2机器上再启动一个hmaster
hbase-daemon.sh start master
简单测试
进入hbase命令行
./hbase shell
显示hbase中的表
list
创建user表,包含info、data两个列族
create 'user', 'info1', 'data1'
获取user表中row key为rk0001的所有信息
get 'user', 'rk0001'
1.上传hbase安装包 hbase-0.96.2-hadoop2 我的目录存放在/usr/hadoop/hbase-0.96.2-hadoop2
2.解压
3.配置hbase集群,要修改3个文件(首先zk集群已经安装好了)
注意:要把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下
3.1修改hbase-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_79
//告诉hbase使用外部的zk
export HBASE_MANAGES_ZK=false
vim hbase-site.xml
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://ns1/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zk的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop4:2181,hadoop5:2181,hadoop6:2181</value>
</property>
</configuration>
vim regionservers
hadoop3
hadoop4
hadoop5
hadoop6
3.2拷贝hbase到其他节点
scp -r /usr/hadoop/hbase-0.96.2-hadoop2/ hadoop2:/usr/hadoop/
scp -r /usr/hadoop/hbase-0.96.2-hadoop2/ hadoop3:/usr/hadoop/
scp -r /usr/hadoop/hbase-0.96.2-hadoop2/ hadoop4:/usr/hadoop/
scp -r /usr/hadoop/hbase-0.96.2-hadoop2/ hadoop5:/usr/hadoop/
scp -r /usr/hadoop/hbase-0.96.2-hadoop2/ hadoop6:/usr/hadoop/
4.将配置好的HBase拷贝到每一个节点并同步时间。
5.启动所有的hbase
分别启动zk
./zkServer.sh start
启动hbase集群
start-dfs.sh
start-hbase.sh
6.通过浏览器访问hbase管理页面
192.168.100.101:60010
7.为保证集群的可靠性,要启动多个HMaster,在hadooop2机器上再启动一个hmaster
hbase-daemon.sh start master
简单测试
进入hbase命令行
./hbase shell
显示hbase中的表
list
创建user表,包含info、data两个列族
create 'user', 'info1', 'data1'
获取user表中row key为rk0001的所有信息
get 'user', 'rk0001'
相关文章推荐
- centos6.5上redis集群搭建,基于redis-3.0.0-beta8--安装redis并测试
- 基于centos6.5的集群搭建
- 基于centos6.5 hadoop 集群搭建
- 基于CentOS的HBase,Hive,Kylin分布式集群搭建过程
- 基于CENTOS6.5搭建Hadoop集群
- 手把手教程: CentOS 6.5 LVS + KeepAlived 搭建 负载均衡 高可用 集群
- 基于CentOS与VmwareStation10搭建Oracle11G RAC 64集群环境:2.搭建环境-2.4. 安装JDK
- 基于CentOS与VmwareStation10搭建Oracle11G RAC 64集群环境:3.安装Oracle RAC-3.2.安装 cvuqdisk 软件包
- 基于CentOS与VmwareStation10搭建Oracle11G RAC 64集群环境:2.搭建环境-2.8. 配置用户环境
- 5、单机运行环境搭建之 --CentOS-6.5拷贝Tomcat8形成集群
- 基于CentOS与VmwareStation10搭建Oracle11G RAC 64集群环境:2.搭建环境-2.9. 配置用户等效性(可选项)
- 基于CentOS与VmwareStation10搭建Oracle11G RAC 64集群环境:4.安装Oracle RAC FAQ-4.1.系统界面报错Gnome
- 基于CentOS与VmwareStation10搭建Oracle11G RAC 64集群环境:2.搭建环境-2.5. 配置网络
- 基于CentOS 6.5操作系统搭建MongoDB服务
- 基于CentOS与VmwareStation10搭建Oracle11G RAC 64集群环境:2.搭建环境-2.6. 安装Oracle所依赖的必要包
- virtualbox中搭建基于centos7.1、hadoop2集群
- VMWare9下基于Ubuntu12.10搭建Hadoop-1.2.1集群—整合Zookeeper和Hbase
- 基于CentOS与VmwareStation10搭建Oracle11G RAC 64集群环境:4.安装Oracle RAC FAQ-4.3.Oracle 集群节点间连通失败
- 基于CentOS与VmwareStation10搭建Oracle11G RAC 64集群环境:4.安装Oracle RAC FAQ-4.4.无法图形化安装Grid Infrastructure
- 基于CentOS与VmwareStation10搭建Oracle11G RAC 64集群环境:2.搭建环境-2.10.配置用户NTF服务