hadoop单节点环境搭建
2017-05-04 15:30
363 查看
1、首先是安装jdk:
2、创建hadoop用户,设置ssh 免密登录
useradd hadoop
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
ssh localhost 测试是否成功
3、下载安装hadoop2.7.3:
wget http://apache.claz.org/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz .
tar zxf hadoop-2.7.3.tar.gz
进入解压之后目录 /etc/hadoop/ 配置文件, 以下摘录一些关键的必要配置信息
core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
mapred-site.xml
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
hadoop-env.sh
export JAVA_HOME=*** 把java_home写上
slaves
单节点默认一行 localhost
4、启动hadoop
格式化hdfs文件系统
bin/hadoop namenode -format
启动、停止hadoop
sbin/start-all.sh 、sbin/stop-all.sh
启动成功
在网页输入ip:50070 hdfs
2、创建hadoop用户,设置ssh 免密登录
useradd hadoop
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
ssh localhost 测试是否成功
3、下载安装hadoop2.7.3:
wget http://apache.claz.org/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz .
tar zxf hadoop-2.7.3.tar.gz
进入解压之后目录 /etc/hadoop/ 配置文件, 以下摘录一些关键的必要配置信息
core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
mapred-site.xml
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
hadoop-env.sh
export JAVA_HOME=*** 把java_home写上
slaves
单节点默认一行 localhost
4、启动hadoop
格式化hdfs文件系统
bin/hadoop namenode -format
启动、停止hadoop
sbin/start-all.sh 、sbin/stop-all.sh
启动成功
在网页输入ip:50070 hdfs
相关文章推荐
- Hadoop环境搭建——单节点篇
- Mac下的hadoop环境搭建(单节点)
- 搭建多个节点的hadoop集群环境(CDH)
- Hadoop 2.2.0单节点的伪分布集成环境搭建
- ubuntu 13.04 搭建Hadoop环境 (单节点)
- hadoop2.6.0三个节点集群环境搭建(一)
- Hadoop单节点开发环境搭建
- Hadoop 2.6.4单节点环境搭建
- 简单的hadoop多节点环境搭建
- hadoop 2.6.0单节点环境搭建
- Hadoop分布式集群环境搭建(三节点)
- hadoop 单节点环境搭建
- Hadoop环境搭建-单节点
- (大数据之hadoop)Hadoop2.2.0版本多节点集群及eclipse开发环境搭建
- hadoop2.6.2集群环境搭建在经过几天的环境搭建,终于搭建成功,其中对于hadoop的具体设置倒是没有碰到很多问题,反而在hadoop各节点之间的通信遇到了问题,而且还反复了很多遍,光虚拟机就重
- Hadoop真·高可用集群模式(7节点)环境搭建
- Hadoop 2.2.0单节点的伪分布集成环境搭建
- Hadoop回顾:(二)搭建5节点hadoop集群环境(CDH5)
- 记录我的hadoop学习历程1--hadoop 单节点环境搭建
- 搭建5个节点的hadoop集群环境(CDH5)