Ubuntu16.04下伪分布式环境搭建之hadoop2.6.0、jdk1.7、Hbase0.98的安装与配置
2017-03-21 12:17
1006 查看
d
在.bashrc文件添加如下指令
http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.6.0/
下面进行安装:
给hadoop配置环境变量,将下面代码添加到.bashrc文件
同样,执行sorce ~./bashrc使设置生效,并查看hadoop是否安装成功
首先将jdk1.7的路径添(export JAVA_HOME=/usr/lib/jvm/java
)加到hadoop-env.sh文件
接下来修改core-site.xml文件:
接下来修改配置文件 hdfs-site.xml
Hadoop 的运行方式是由配置文件决定的(运行 Hadoop 时会读取配置文件),因此如果需要从伪分布式模式切换回非分布式模式,需要删除 core-site.xml 中的配置项。此外,伪分布式虽然只需要配置 fs.defaultFS 和 dfs.replication 就可以运行(可参考官方教程),不过若没有配置 hadoop.tmp.dir 参数,则默认使用的临时目录为 /tmp/hadoo-hadoop,而这个目录在重启时有可能被系统清理掉,导致必须重新执行 format 才行。所以我们进行了设置,同时也指定 dfs.namenode.name.dir 和 dfs.datanode.data.dir,否则在接下来的步骤中可能会出错。
配置完成后,执行 NameNode 的格式化
启动namenode和datanode进程,并查看启动结果
启动完成后,可以通过命令 jps 来判断是否成功启动,若成功启动则会列出如下进程: “NameNode”、”DataNode” 和 “SecondaryNameNode”
成功启动后,可以访问 Web 界面 http://localhost:50070 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。
Step2:将下载好的hbase-0.98.24-hadoop2-bin.tar.gz文件解压到/usr/local目录下,并重命名为hbase,并修改权限
Step3:配置命令行环境变量/etc/profile
Step4:修改hbase的配置文件/conf/hbase-env.sh
Step5:编辑.xml配置文件 conf/hbase-site.xml
说明
hbase.rootdir配置在hdfs文件系统上hbase存储的路径
hbase.cluster.distributed配置是否是分布式的
hbase.zookeeper.quorum配置zookeeper在哪个节点上
dfs.replication配置副本个数
注意:hbase.rootdir的主机和端口号与hadoop的配置文件core-site.xml的fs.default.name的主机和端口号一致
启动hbase,在bin目录下执行命令start-hbase.sh
启动hbase之前,确保hadoop是运行正常的,并且可以写入文件*
Step6:验证是否安装成功:
(1) 执行jps,发现新增加了3个java进程,分别是HMaster、HRegionServer、HQuorumPeer
(2) 使用浏览器访问http://localhost:60010,可以进入和hadoop类似的web管理页面
参考文献:
http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/SingleCluster.html
一、准备工作
1.1创建hadoop用户
$ sudo useradd -m hadoop -s /bin/bash #创建hadoop用户,并使用/bin/bash作为shell $ sudo passwd hadoop #为hadoop用户设置密码,输入两次 $ sudo adduser hadoop sudo #为hadoop用户增加管理员权限,方便部署 $ su - hadoop #将当前用户切换到hadoop用户 $ sudo apt-get update #更新hadoop用户的apt,方便后续软件安装
1.2安装SSH,并配置SSH无密码登陆
$ sudo apt-get install openssh-server #ubuntu默认安装了SSH client,此处安装SSH server $ sudo localhost #登陆SSH,第一次登陆输入yes $ exit #退出登录的ssh localhost $ cd ~/.ssh/ #如果没法进入该目录,执行一次ssh localhost $ ssh-keygen -t rsa $ cat ./id_rsa.pub >> ./authorized_keys #加入授权 $ ssh localhost #无需密码登陆,可看到如下界面
二、安装jdk1.7
首先在oracle官网下载jdk1.7,http://www.oracle.com/technetwork/java/javase/archive-139210.html接下来进行安装与环境变量配置,根据个人电脑系统选择对应版本,我选的是jdk-7u80-linux-x64.tar.gz$ sudo tar zxvf jdk-7u80-linux-x64.tar.gz -C /usr/lib #/ 解压到/usr/lib/jvm目录下 $ cd /usr/lib/jvm #进入该目录 $ mv jdk1.7.0_80 java #重命名为java $ vi ~/.bashrc #给JDK配置环境变量
在.bashrc文件添加如下指令
export JAVA_HOME=/usr/lib/jvm/java export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH
$ source ~/.bashrc #使新配置的环境变量生效 $ java -version #检测是否安装成功,查看java版本
三、安装hadoop-2.6.0
先下载hadoop-2.6.0.tar.gz,链接如下:http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.6.0/
下面进行安装:
$ sudo tar -zxvf hadoop-2.6.0.tar.gz -C /usr/local #解压到/usr/local目录下 $ cd /usr/local $ sudo mv hadoop-2.6.0 hadoop #重命名为hadoop $ sudo chown -R hadoop ./hadoop #修改文件权限
给hadoop配置环境变量,将下面代码添加到.bashrc文件
export HADOOP_HOME=/usr/local/hadoop export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
同样,执行sorce ~./bashrc使设置生效,并查看hadoop是否安装成功
四、伪分布式配置
Hadoop 可以在单节点上以伪分布式的方式运行,Hadoop 进程以分离的 Java 进程来运行,节点既作为 NameNode 也作为 DataNode,同时,读取的是 HDFS 中的文件。Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/ 中,伪分布式需要修改2个配置文件 core-site.xml 和 hdfs-site.xml 。Hadoop的配置文件是 xml 格式,每个配置以声明 property 的 name 和 value 的方式来实现。首先将jdk1.7的路径添(export JAVA_HOME=/usr/lib/jvm/java
)加到hadoop-env.sh文件
接下来修改core-site.xml文件:
<configuration> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/local/hadoop/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
接下来修改配置文件 hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/data</value> </property> </configuration>
Hadoop 的运行方式是由配置文件决定的(运行 Hadoop 时会读取配置文件),因此如果需要从伪分布式模式切换回非分布式模式,需要删除 core-site.xml 中的配置项。此外,伪分布式虽然只需要配置 fs.defaultFS 和 dfs.replication 就可以运行(可参考官方教程),不过若没有配置 hadoop.tmp.dir 参数,则默认使用的临时目录为 /tmp/hadoo-hadoop,而这个目录在重启时有可能被系统清理掉,导致必须重新执行 format 才行。所以我们进行了设置,同时也指定 dfs.namenode.name.dir 和 dfs.datanode.data.dir,否则在接下来的步骤中可能会出错。
配置完成后,执行 NameNode 的格式化
$ ./bin/hdfs namenode -format
启动namenode和datanode进程,并查看启动结果
$ ./sbin/start-dfs.sh $ jps
启动完成后,可以通过命令 jps 来判断是否成功启动,若成功启动则会列出如下进程: “NameNode”、”DataNode” 和 “SecondaryNameNode”
成功启动后,可以访问 Web 界面 http://localhost:50070 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。
五、安装Hbase0.98
Step1:HBase0.98下载链接:http://www-us.apache.org/dist/hbase/0.98.24/Step2:将下载好的hbase-0.98.24-hadoop2-bin.tar.gz文件解压到/usr/local目录下,并重命名为hbase,并修改权限
$ sudo tar -zxf hbase-0.98.24-hadoop2-bin.tar.gz -C/usr/local #解压到usr/local目录下 $ cd /usr/local $ mv ./hbase-0.98.24-hadoop2 ./hbase #重命名 $ sudo chown -R hadoop:hadoop ./hbase #修改权限
Step3:配置命令行环境变量/etc/profile
export HBASE_HOME=/usr/local/hbase export PATH=$HBASE_HOME/bin:$PATH
Step4:修改hbase的配置文件/conf/hbase-env.sh
export JAVA_HOME=/usr/lib/jvm/java export HBASE_MANAGES_ZK=true
Step5:编辑.xml配置文件 conf/hbase-site.xml
<configuration> <property> <name>hbase.rootdir</name> <value>hdfs://localhost:9000/hbase</value> <description>数据存放的位置。</description> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>localhost</value> </property> <property> <name>dfs.replication</name> <value>1</value> <description>指定副本个数为1,因为伪分布式。</description> </property> </configuration>
说明
hbase.rootdir配置在hdfs文件系统上hbase存储的路径
hbase.cluster.distributed配置是否是分布式的
hbase.zookeeper.quorum配置zookeeper在哪个节点上
dfs.replication配置副本个数
注意:hbase.rootdir的主机和端口号与hadoop的配置文件core-site.xml的fs.default.name的主机和端口号一致
启动hbase,在bin目录下执行命令start-hbase.sh
启动hbase之前,确保hadoop是运行正常的,并且可以写入文件*
Step6:验证是否安装成功:
(1) 执行jps,发现新增加了3个java进程,分别是HMaster、HRegionServer、HQuorumPeer
(2) 使用浏览器访问http://localhost:60010,可以进入和hadoop类似的web管理页面
六、关于推出
先推出Hbase,然后退出hdfs,最后推出主机localhost参考文献:
http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/SingleCluster.html
相关文章推荐
- Ubuntu15.10下Hadoop2.6.0伪分布式环境安装配置及Hadoop Streaming的体验
- Ubuntu14.04全分布式安装hadoop2.7.2(三)jdk环境配置+hadoop单机
- 伪分布式环境搭建之hadoop、Hbase的安装与配置
- hadoop - hadoop2.6 分布式 - 集群环境搭建 - JDK安装配置和SSH安装配置与免密码登陆(集群中)
- Ubuntu16.04 下 hadoop的安装与配置(伪分布式环境)
- Ubuntu系统安装+Hadoop伪分布式环境搭建+eclipse环境配置
- spark 1.6.0 安装与配置(spark1.6.0、Ubuntu14.04、hadoop2.6.0、scala2.10.6、jdk1.7)
- ubuntu安装配置hadoop伪分布式及eclipse搭建hadoop环境
- Hadoop安装(版本一)———Ubuntu16.04 下 hadoop的安装与配置(伪分布式环境)
- 【心血之作】linux虚拟机下安装配置Hadoop(完全分布式)生态环境(hadoop2.2.0,HBase0.98,Hive0.13(连接oracle),sqoop1.4.4(连接oracle)
- 【图文绝对详细】Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04
- CentOS 6.5下搭建hadoop 2.6.0集群(一):安装配置JDK
- ubuntu搭建hadoop-Ver2.6.0完全分布式环境笔记
- Ubuntu14.04安装配置Hadoop2.6.0(完全分布式)与 wordcount实例运行
- 【转】Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04
- Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04
- HBase0.98 + Hadoop2.6 Fully Distributed 完全分布式环境搭建
- Hbase完全分布式集群安装配置(Hbase1.0.0,Hadoop2.6.0)
- Ubuntu下JDK及hadoop2.2.0的单机,伪分布式环境搭建
- Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04