您的位置:首页 > 运维架构

Hadoop伪分布式安装步骤之hdfs

2018-02-21 23:25 344 查看
本篇是hdfs的安装

所用版本:hadoop-2.6.0-cdh5.7.0.tar.gz

1)jdk安装

解压:tar -zxvf jdk-7u79-linux-x64.tar.gz -C ~/app
添加到系统环境变量: ~/.bash_profile
export JAVA_HOME=/home/hadoop/app/jdk1.7.0_79
export PATH=$JAVA_HOME/bin:$PATH
使得环境变量生效: source ~/.bash_profile
验证java是否配置成功: java -version

2)安装ssh
sudo yum install ssh
ssh-keygen -t rsa
cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

3)下载并解压hadoop
下载:直接去cdh网站下载
解压:tar -zxvf hadoop-2.6.0-cdh5.7.0.tar.gz -C ~/app

4)hadoop配置文件的修改(hadoop_home/etc/hadoop) ,core-site里面默认存储在临时文件夹,重启后会被删除,所以需要设置hadoop.tmp.dir目录
hadoop-env.sh
export JAVA_HOME=/home/hadoop/app/jdk1.7.0_79

core-site.xml
<property>
       <name>fs.defaultFS</name>
       <value>hdfs://hadoop000:8020</value>
   </property>

   <property>
       <name>hadoop.tmp.dir</name>
       <value>/home/hadoop/app/tmp</value>
   </property>

hdfs-site.xml
<property>
       <name>dfs.replication</name>
       <value>1</value>
   </property>

slaves:hadoop000

5)启动hdfs
格式化文件系统(仅第一次执行即可,不要重复执行),在bin目录下面执行:hdfs/hadoop namenode -format
启动hdfs: sbin/start-dfs.sh
验证是否启动成功:
jps
DataNode
SecondaryNameNode
NameNode

浏览器访问方式: http://hadoop000:50070
我自己用的是http://192.168.0.105:50070/dfshealth.html#tab-overview



6)停止hdfs
sbin/stop-dfs.sh 
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: