hadoop单机部署伪分布式系列1:HDFS
2014-06-16 16:48
288 查看
安装服务
单机版hdfs:namenode、SecondaryNameNode、datanode
环境准备:
节点:10.1.253.178(hostname:cdh1)
创建用户:liulu
本节点自己建立互信(执行ssh localhost输入yes,保证以后不需要输)
节点关闭防火墙
安装包:
jdk1.6.0_31.zip
hadoop-2.0.0-cdh4.2.1.tar.gz
部署步骤:
1. 上传安装包并解压
/home/liulu/app/hadoop-2.0.0-cdh4.2.1
/home/liulu/app/jdk1.6.0_31
2. 修改以下文件
/home/liulu/.bash_profile:
JAVA_HOME=/home/liulu/app/jdk1.6.0_31
PATH=$PATH:$HOME/bin:$JAVA_HOME/bin
(注:执行source命令使之生效)
hdfs文件1:/home/liulu/app/hadoop-2.0.0-cdh4.2.1/etc/hadoop/core-site.xml:
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost</value>
</property>
hdfs文件2:/home/liulu/app/hadoop-2.0.0-cdh4.2.1/etc/hadoop/hdfs-site.xml:
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/liulu/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/liulu/data/datanode</value>
</property>
hdfs文件3:/home/liulu/app/hadoop-2.0.0-cdh4.2.1/etc/hadoop/hadoop-env.sh:
export JAVA_HOME=/home/liulu/app/jdk1.6.0_31
hdfs文件4:/home/liulu/app/hadoop-2.0.0-cdh4.2.1/etc/hadoop/slaves:
localhost
注:$dfs.namenode.name.dir指定目录需要事先创建。
3. 格式化hdfs文件系统的namenode
cd /home/liulu/app/hadoop-2.0.0-cdh4.2.1/bin
./hdfs namenode -format
注:format后若$dfs.datanode.data.dir指定目录存有老集群的信息,则需要删除。
4. 启动hdfs集群
cd /home/liulu/app/hadoop-2.0.0-cdh4.2.1/sbin
./start-dfs.sh
5. 检查hdfs集群
看进程(NameNode、SecondaryNameNode、DataNode):
[liulu@cdh1 sbin]$ jps -m
14556 Jps -m
14310 SecondaryNameNode
14106 DataNode
13976 NameNode
看namenode监控页面: http://10.1.253.178:50070/dfshealth.jsp http://10.1.253.178:50090/status.jsp
6. Hdfs操作
cd /home/liulu/app/hadoop-2.0.0-cdh4.2.1/bin
./hdfs dfs -mkdir /test
./hdfs dfs -put ~/testfile /test
7. 关闭Hdfs
cd /home/liulu/app/hadoop-2.0.0-cdh4.2.1/sbin
./stop-dfs.sh
安装服务
单机版hdfs:namenode、SecondaryNameNode、datanode
环境准备:
节点:10.1.253.178(hostname:cdh1)
创建用户:liulu
本节点自己建立互信(执行ssh localhost输入yes,保证以后不需要输)
节点关闭防火墙
安装包:
jdk1.6.0_31.zip
hadoop-2.0.0-cdh4.2.1.tar.gz
部署步骤:
1. 上传安装包并解压
/home/liulu/app/hadoop-2.0.0-cdh4.2.1
/home/liulu/app/jdk1.6.0_31
2. 修改以下文件
/home/liulu/.bash_profile:
JAVA_HOME=/home/liulu/app/jdk1.6.0_31
PATH=$PATH:$HOME/bin:$JAVA_HOME/bin
(注:执行source命令使之生效)
hdfs文件1:/home/liulu/app/hadoop-2.0.0-cdh4.2.1/etc/hadoop/core-site.xml:
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost</value>
</property>
hdfs文件2:/home/liulu/app/hadoop-2.0.0-cdh4.2.1/etc/hadoop/hdfs-site.xml:
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/liulu/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/liulu/data/datanode</value>
</property>
hdfs文件3:/home/liulu/app/hadoop-2.0.0-cdh4.2.1/etc/hadoop/hadoop-env.sh:
export JAVA_HOME=/home/liulu/app/jdk1.6.0_31
hdfs文件4:/home/liulu/app/hadoop-2.0.0-cdh4.2.1/etc/hadoop/slaves:
localhost
注:$dfs.namenode.name.dir指定目录需要事先创建。
3. 格式化hdfs文件系统的namenode
cd /home/liulu/app/hadoop-2.0.0-cdh4.2.1/bin
./hdfs namenode -format
注:format后若$dfs.datanode.data.dir指定目录存有老集群的信息,则需要删除。
4. 启动hdfs集群
cd /home/liulu/app/hadoop-2.0.0-cdh4.2.1/sbin
./start-dfs.sh
5. 检查hdfs集群
看进程(NameNode、SecondaryNameNode、DataNode):
[liulu@cdh1 sbin]$ jps -m
14556 Jps -m
14310 SecondaryNameNode
14106 DataNode
13976 NameNode
看namenode监控页面: http://10.1.253.178:50070/dfshealth.jsp http://10.1.253.178:50090/status.jsp
6. Hdfs操作
cd /home/liulu/app/hadoop-2.0.0-cdh4.2.1/bin
./hdfs dfs -mkdir /test
./hdfs dfs -put ~/testfile /test
7. 关闭Hdfs
cd /home/liulu/app/hadoop-2.0.0-cdh4.2.1/sbin
./stop-dfs.sh
相关文章推荐
- hadoop单机部署伪分布式系列3:YARN
- hadoop单机部署伪分布式系列2:MR1
- linux(redhat)环境下Hadoop 2.2.0安装部署(单机伪分布式)
- 如何在Centos6.5下部署hadoop2.2单机伪分布式(二)
- hadoop1.x的单机与伪分布式部署
- centos-7 部署hadoop2.5.1 >>>> 分布式 HDFS(三)
- 在ubuntu部署hadoop之单机模式与伪分布式模式部署
- Linux集群部署系列(五):Hadoop 2.x完全分布式集群部署
- hadoop2.6单机运行及伪分布式部署运行
- Hadoop HDFS概念学习系列之分布式文件管理系统(二十五)
- windows10 下不能访问Hadoop在虚拟机中部署的完全分布式的hdfs和mapreduce问题
- 用Linux Container在单机上部署完全分布式的Hadoop集群
- Ubuntu下Hadoop单机部署及分布式集群部署
- windows下hadoop的单机伪分布式部署(1)
- 大数据系列之Hadoop分布式集群部署
- 在ubuntu部署单机和伪分布式hadoop
- windows下hadoop的单机伪分布式部署(3)
- ubuntu部署hadoop之单机模式与伪分布式模式(个人笔记)
- linux下从安装JDK到安装ssh到hadoop单机伪分布式部署
- 大数据系列之Hadoop分布式集群部署