Hadoop伪分布式安装步骤之hdfs
2018-02-21 23:25
344 查看
本篇是hdfs的安装
所用版本:hadoop-2.6.0-cdh5.7.0.tar.gz
1)jdk安装
解压:tar -zxvf jdk-7u79-linux-x64.tar.gz -C ~/app
添加到系统环境变量: ~/.bash_profile
export JAVA_HOME=/home/hadoop/app/jdk1.7.0_79
export PATH=$JAVA_HOME/bin:$PATH
使得环境变量生效: source ~/.bash_profile
验证java是否配置成功: java -version
2)安装ssh
sudo yum install ssh
ssh-keygen -t rsa
cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
3)下载并解压hadoop
下载:直接去cdh网站下载
解压:tar -zxvf hadoop-2.6.0-cdh5.7.0.tar.gz -C ~/app
4)hadoop配置文件的修改(hadoop_home/etc/hadoop) ,core-site里面默认存储在临时文件夹,重启后会被删除,所以需要设置hadoop.tmp.dir目录
hadoop-env.sh
export JAVA_HOME=/home/hadoop/app/jdk1.7.0_79
core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop000:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/app/tmp</value>
</property>
hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
slaves:hadoop000
5)启动hdfs
格式化文件系统(仅第一次执行即可,不要重复执行),在bin目录下面执行:hdfs/hadoop namenode -format
启动hdfs: sbin/start-dfs.sh
验证是否启动成功:
jps
DataNode
SecondaryNameNode
NameNode
浏览器访问方式: http://hadoop000:50070
我自己用的是http://192.168.0.105:50070/dfshealth.html#tab-overview
6)停止hdfs
sbin/stop-dfs.sh
所用版本:hadoop-2.6.0-cdh5.7.0.tar.gz
1)jdk安装
解压:tar -zxvf jdk-7u79-linux-x64.tar.gz -C ~/app
添加到系统环境变量: ~/.bash_profile
export JAVA_HOME=/home/hadoop/app/jdk1.7.0_79
export PATH=$JAVA_HOME/bin:$PATH
使得环境变量生效: source ~/.bash_profile
验证java是否配置成功: java -version
2)安装ssh
sudo yum install ssh
ssh-keygen -t rsa
cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
3)下载并解压hadoop
下载:直接去cdh网站下载
解压:tar -zxvf hadoop-2.6.0-cdh5.7.0.tar.gz -C ~/app
4)hadoop配置文件的修改(hadoop_home/etc/hadoop) ,core-site里面默认存储在临时文件夹,重启后会被删除,所以需要设置hadoop.tmp.dir目录
hadoop-env.sh
export JAVA_HOME=/home/hadoop/app/jdk1.7.0_79
core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop000:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/app/tmp</value>
</property>
hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
slaves:hadoop000
5)启动hdfs
格式化文件系统(仅第一次执行即可,不要重复执行),在bin目录下面执行:hdfs/hadoop namenode -format
启动hdfs: sbin/start-dfs.sh
验证是否启动成功:
jps
DataNode
SecondaryNameNode
NameNode
浏览器访问方式: http://hadoop000:50070
我自己用的是http://192.168.0.105:50070/dfshealth.html#tab-overview
6)停止hdfs
sbin/stop-dfs.sh
相关文章推荐
- Hadoop集群之HDFS伪分布式安装 非HA(一)
- Hadoop2.6.4 HA 高可用分布式集群安装配置详细步骤
- hadoop 1.2.1 安装步骤 伪分布式
- hadoop在ubuntu14.04中完全分布式安装步骤
- Hadoop伪分布式安装步骤
- hadoop2伪分布式安装步骤
- hadoop 1.2.1 安装步骤 伪分布式
- 集群分布式 Hadoop安装详细步骤
- 高可用,完全分布式Hadoop集群HDFS和MapReduce安装配置指南
- hadoop 1.2.1 安装步骤 伪分布式
- hadoop学习之HDFS(2):CentOS7安装完全分布式hadoop-2.7.2
- Hadoop伪分布式安装步骤
- Linux单机环境下HDFS伪分布式集群安装操作步骤v1.0
- Hadoop1.x伪分布式详细安装步骤
- Hadoop伪分布式安装步骤
- 用虚拟机安装、启动、停用hadoop2.6.0(实现hdfsHA和ResourceManagerHA)步骤小记
- hadoop伪分布式安装步骤
- hadoop-3.0.0-beta1运维手册(004):安装分布式hdfs3.0.0-配置JDK、设置主机名
- hadoop-安装伪分布式hdfs
- hadoop伪分布式安装步骤