您的位置:首页 > 运维架构

Hadoop第12周练习—HBase安装部署

2015-08-31 17:04 537 查看
转载:http://www.cnblogs.com/shishanyuan/p/4227525.html

1 运行环境说明
1.1 硬软件环境
1.2 机器网络环境
2 书面作业1:安装HBASE
2.1 书面作业1内容
2.2 安装过程
2.2.1 下载HBase安装包
2.2.2 上传HBase
2.2.3 解压并移动目录
2.2.4 设置环境变量
2.2.5 编辑hbase-env.sh
2.2.6 编辑hbase-site.xml
2.2.7 编辑regionservers文件
2.2.8 分发程序文件
2.2.9 设置分发节点设置环境变量
2.2.10启动HBase
2.2.11验证启动

1 运行环境说明

1.1 硬软件环境

l 主机操作系统:Windows 64 bit,双核4线程,主频2.2G,6G内存
l 虚拟软件:VMware® Workstation 9.0.0 build-812388
l 虚拟机操作系统:CentOS 64位,单核,1G内存
l JDK:1.7.0_55 64 bit
l Hadoop:1.1.2

1.2 机器网络环境

集群包含三个节点:1个namenode、2个datanode,其中节点之间可以相互ping通。节点IP地址和主机名分布如下:
序号
IP地址
机器名
类型
用户名
运行进程
1
10.88.147.221
hadoop1
名称节点
hadoop
NN、SNN、JobTracer
2
10.88.147.222
hadoop2
数据节点
hadoop
DN、TaskTracer
3
10.88.147.223
hadoop3
数据节点
hadoop
DN、TaskTracer
所有节点均是CentOS6.5 64bit系统,防火墙均禁用,所有节点上均创建了一个hadoop用户,用户主目录是/usr/hadoop。所有节点上均创建了一个目录/usr/local/hadoop,并且拥有者是hadoop用户。

2 书面作业1:安装HBase

2.1 书面作业1内容

安装HBase,有条件的同学都按完全分布式安装,将安装过程和最后测试成功的界面抓图提交。

2.2 安装过程

2.2.1下载HBase安装包

从Apache网站上(hbase.apache.org)下载HBase稳定发布包: http://mirrors.cnnic.cn/apache/hbase/hbase-0.96.2/


2.2.2上传HBase

把下载的hbase-0.96.2-hadoop1-bin.tar.gz安装包,使用SSH Secure File Transfer工具(第1、2周作业2.1.3.1介绍)上传到/home/hadoop/Downloads 目录下



2.2.3解压并移动目录

1. 使用如下命令解压,解压后出现hbase-0.96.2-hadoop1文件夹:
cd /home/hadoop/Downloads
tar -zxf hbase-0.96.2-hadoop1-bin.tar.gz



2. 使用如下命令把解压目录迁移到/usr/local下:
sudo mv hbase-0.96.2-hadoop1 /usr/local/hbase-0.96.2



2.2.4设置环境变量

1. 使用sudo vi /etc/profile命令修改系统环境变量
export HBASE_HOME=/usr/local/hbase-0.96.2
export PATH=$PATH:$HBASE_HOME/bin



2. 使环境变量生效
source /etc/profile



3. 验证环境变量生效
hbase version



2.2.5编辑hbase-env.sh

1. 打开hbase-env.sh文件
cd /usr/local/hbase-0.96.2/conf
sudo vi hbase-env.sh



2. 修改该文件配置
#Java环境
export JAVA_HOME=/usr/lib/java/jdk1.7.0_55
#通过hadoop的配置文件找到hadoop集群
export HBASE_CLASSPATH=/usr/local/hadoop-1.1.2/conf
#使用HBASE自带的zookeeper管理集群
export HBASE_MANAGES_ZK=true






2.2.6编辑hbase-site.xml

1. 打开hbase-site.xml配置文件
cd /usr/local/hbase-0.96.2/conf
sudo vi hbase-site.xml



2. 配置hbase-site.xml文件
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop1:9000/hbase</value>// Hbase该项并不识别机器IP,只能使用机器hostname
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop1,hadoop2,hadoop3</value>
</property>
</configuration>



2.2.7编辑regionservers文件

使用如下命令打开regionservers配置文件:
sudo vi regionservers



加入如下内容:
hadoop2
hadoop3



2.2.8分发程序文件

1. 在其他两个节点hadoop2、hadoop3创建HBase存放目录并赋予权限
sudo mkdir /usr/local/hbase-0.96.2
sudo chown –R hadoop /usr/local/hbase-0.96.2



2. 在hadoop1节点把HBase分发到hadoop2和hadoop3中
cd /usr/local
scp -r hbase-0.96.2/* hadoop@hadoop2:/usr/local/hbase-0.96.2/
scp -r hbase-0.96.2/* hadoop@hadoop3:/usr/local/hbase-0.96.2/






2.2.9设置分发节点设置环境变量

按照hadoop1节点环境修改hadoop2、hadoop3系统环境变量,使用 sudo vi /etc/profile 打开配置文件:
export HBASE_HOME=/usr/local/hbase-0.96.2
export PATH=$PATH:$HBASE_HOME/bin



设置后使用 source /etc/profile 生效设置环境变量

2.2.10 启动HBase

通过如下命令启动Hbase
cd /usr/local/hbase-0.96.2/bin
./start-hbase.sh



2.2.11 验证启动

1. 查看各节点状态
hadoop1:



hadoop2、hadoop3:



2. 进入hbase的shell命令行,创建表member并进行查看


内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: