Hadoop 2.7.3安装与配置
2016-10-30 23:37
225 查看
1.1修改主机名
vim /etc/hostname
1.2修改IP
执行如下命令:vim /etc/network/interfaces
1.3修改主机名和IP的映射关系
vim /etc/hosts
1.4关闭防火墙
1.5重启Linux
reboot
2.安装JDK
注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop
伪分布式需要修改5个配置文件
第一个:hadoop-env.sh
#第27行
export JAVA_HOME=/usr/jdk1.8.0_101
第二个:core-site.xml
<!-- 制定HDFS的老大(NameNode)的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://centos01:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>file:/home/hoofan/hadoop/tmp</value>
</property>
第三个:hdfs-site.xml
<!-- 指定HDFS副本的数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/hoofan/hadoop/tmp/dfs/name</value>(即使用完整的绝对地址)
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/hoofan/hadoop/tmp/dfs/name</value>(即使用完整的绝对地址)
</property>
第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
<!-- 指定mr运行在yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
第五个:yarn-site.xml
<!-- 指定YARN的老大(ResourceManager)的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>centos01</value>
</property>
<!-- reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
(4)配置hadoop的环境变量
vi /etc/profile
添加如下配置
export JAVA_HOME=/usr/java/jdk1.7.0_65重复
export HADOOP_HOME=/itcast/hadoop-2.4.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
执行指令 source /etc/profile
(5)格式化namenode(是对namenode进行初始化)
hdfs namenode -format (hadoop namenode -format)
(6)安装完成后的验证
执行命令start-all.sh
[root@centos01 ~]# jps
3093 ResourceManager
3191 NodeManager
2939 SecondaryNameNode
2366 NameNode
5519 Jps
表示安装成功
打开网页http://192.168.3.97:8088/cluster可以正常查看
或者
3.4启动hadoop
先启动HDFS
sbin/start-dfs.sh
再启动YARN
sbin/start-yarn.sh
3.5验证是否启动成功
使用jps命令验证
27408 NameNode
28218 Jps
27643 SecondaryNameNode
28066 NodeManager
27803 ResourceManager
27512 DataNode
http://192.168.1.108:50070 (HDFS管理界面) http://192.168.1.108:8088 (MR管理界面)
4.配置ssh免登陆
#生成ssh免登陆密钥
#进入到我的home目录
cd ~/.ssh
ssh-keygen -t rsa (四个回车)
执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
将公钥拷贝到要免登陆的机器上
ssh-copy-id localhost
vim /etc/hostname
1.2修改IP
执行如下命令:vim /etc/network/interfaces
1.3修改主机名和IP的映射关系
vim /etc/hosts
1.4关闭防火墙
1.5重启Linux
reboot
2.安装JDK
注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop
伪分布式需要修改5个配置文件
第一个:hadoop-env.sh
#第27行
export JAVA_HOME=/usr/jdk1.8.0_101
第二个:core-site.xml
<!-- 制定HDFS的老大(NameNode)的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://centos01:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>file:/home/hoofan/hadoop/tmp</value>
</property>
第三个:hdfs-site.xml
<!-- 指定HDFS副本的数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/hoofan/hadoop/tmp/dfs/name</value>(即使用完整的绝对地址)
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/hoofan/hadoop/tmp/dfs/name</value>(即使用完整的绝对地址)
</property>
第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
<!-- 指定mr运行在yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
第五个:yarn-site.xml
<!-- 指定YARN的老大(ResourceManager)的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>centos01</value>
</property>
<!-- reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
(4)配置hadoop的环境变量
vi /etc/profile
添加如下配置
export JAVA_HOME=/usr/java/jdk1.7.0_65重复
export HADOOP_HOME=/itcast/hadoop-2.4.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
执行指令 source /etc/profile
(5)格式化namenode(是对namenode进行初始化)
hdfs namenode -format (hadoop namenode -format)
(6)安装完成后的验证
执行命令start-all.sh
[root@centos01 ~]# jps
3093 ResourceManager
3191 NodeManager
2939 SecondaryNameNode
2366 NameNode
5519 Jps
表示安装成功
打开网页http://192.168.3.97:8088/cluster可以正常查看
或者
3.4启动hadoop
先启动HDFS
sbin/start-dfs.sh
再启动YARN
sbin/start-yarn.sh
3.5验证是否启动成功
使用jps命令验证
27408 NameNode
28218 Jps
27643 SecondaryNameNode
28066 NodeManager
27803 ResourceManager
27512 DataNode
http://192.168.1.108:50070 (HDFS管理界面) http://192.168.1.108:8088 (MR管理界面)
4.配置ssh免登陆
#生成ssh免登陆密钥
#进入到我的home目录
cd ~/.ssh
ssh-keygen -t rsa (四个回车)
执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
将公钥拷贝到要免登陆的机器上
ssh-copy-id localhost
相关文章推荐
- Hadoop 2.7.3 安装配置及测试
- Hadoop2.7.3及常用组件安装和配置
- hadoop-2.7.3 + hive-2.3.0 + zookeeper 4000 -3.4.8 + hbase-1.3.1 完全分布式安装配置
- Hadoop安装教程_伪分布式配置_CentOS7.x/Hadoop2.7.3
- 安装配置hadoop2.7.3伪集群
- hadoop第一篇,在Ubuntu14.04安装hadoop2.7.3伪分布式配置
- Hadoop 2.7.3安装与配置
- 从Ubuntu安装到Hadoop2.7.3配置
- Hadoop集群安装配置教程_Hadoop2.7.3Ubuntu/CentOS
- Hadoop 2.7.3安装与配置
- Spark-2.1.1集群的安装和配置(基于Hadoop-2.7.3)
- Sqoop-1.4.6安装配置及Mysql->HDFS->Hive数据导入(基于Hadoop2.7.3)
- 详解Ubuntu16.04下Hadoop 2.7.3的安装与配置
- Hadoop-2.7.3环境下Hive-2.1.1安装配置。
- Ubuntu16.04下Hadoop 2.7.3的安装与配置
- hadoop-2.7.3的安装和配置
- Hadoop 2.7.3安装与配置
- Hadoop安装教程_单机/伪分布式配置_Hadoop2.7.3/Ubuntu16.04
- hadoop-2.7.3 + hive-2.3.0 + zookeeper-3.4.8 + hbase-1.3.1 完全分布式安装配置
- 在VMWare Workstation上使用RedHat Linux安装和配置Hadoop群集环境01_虚拟机的安装