Fedora 23 下安装 Hadoop 2.6.2
2015-11-05 11:11
295 查看
准备环境
硬件
三台PC机,联网软件
JAVA 1.8hadoop 2.6.2
SSH无密码登录配置
配置机器 host
sudo vi(gedit) /etc/hosts最下面增加
192.168.0.2 hadoop1
192.168.0.3 hadoop2
192.168.0.4 hadoop3
ssh免密码验证配置
在hadoop1机器命令行环境输入:cd ~/.ssh/,进入.ssh目录。
输入命令生成秘钥:
ssh-keygen -t rsa,会生成(id_rsa,id_rsa.pub)两个文件。
生成authorized_keys文件:c
at id_rsa.pub >> authorized_keys。
同样在另外两台机器(hadoop2、hadoop3)上也生成这两份文件。
将hadoop2、hadoop3上生成的id_rsa.pub重命名后拷贝到hadoop1的.ssh目录中,分别为:id_rsa_hadoop2.pub、id_rsa_hadoop3.pub。
输入命令:
cat id_rsa_hadoop2.pub>> authorized_keys与
cat id_rsa_hadoop3.pub>> authorized_keys。
将authorized_keys文件分别拷贝到hadoop2与hadoop3的.ssh目录中。
对.ssh/ 文件夹与authorized_keys文件进行授权:
chmod 700 ~/.ssh、
chmod 600 ~/.ssh/authorized_keys。
安装Hadoop
解压hadoop到自己指定的目录,我是存放在home下面。cd/hadoop-2.6.2/etc/hadoop。
打开hadoop-env.sh文件,修改JAVA_HOME=/usr/java/jdk1.8.0_65。
打开yarn-env.sh文件,修改JAVA_HOME=/usr/java/jdk1.8.0_65。
配置slaves文件,增加hadoop1、hadoop2、hadoop3。
配置 core-site.xml文件。
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://hadoop1:9000</value> </property> <property> <name>io.file.buffer.size</name> <value>131072</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:/home/hadoop/tmp</value> <description>Abasefor other temporary directories.</description> </property> <property> <name>hadoop.proxyuser.spark.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.spark.groups</name> <value>*</value> </property> </configuration>
配置 hdfs-site.xml 文件
<configuration> <property> <name>dfs.namenode.secondary.http-address</name> <value>hadoop1:9001</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/home/hadoop/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/home/hadoop/dfs/data</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> </configuration>
mapred-site.xml 文件
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>hadoop1:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>hadoop1:19888</value> </property> </configuration>
配置 yarn-site.xml 文件
<configuration> <property> <name>yarn bd37 .nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>hadoop1:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>hadoop1:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>hadoop1:8035</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>hadoop1:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>hadoop1:8088</value> </property> </configuration>
配置好的hadoop-2.6.2以相同的目录结构拷贝到另外两台机器上。
启动hadoop
格式化namenode
分别在每台机器的hadoop2-6.2目录下执行:./bin/hdfs namenode -format。
启动hdfs
./sbin/start-dfs.sh
启动yarn
./sbin/start-yarn.sh
查看集群状态
./bin/hdfs dfsadmin -report
相关文章推荐
- java对世界各个时区(TimeZone)的通用转换处理方法(转载)
- java-注解annotation
- java-模拟tomcat服务器
- java-用HttpURLConnection发送Http请求.
- java-WEB中的监听器Lisener
- Android IPC进程间通讯机制
- Android Native 绘图方法
- Android java 与 javascript互访(相互调用)的方法例子
- 升级fedora16beta遇到的问题
- 介绍一款信息管理系统的开源框架---jeecg
- 聚类算法之kmeans算法java版本
- java实现 PageRank算法
- 详解HDFS Short Circuit Local Reads
- PropertyChangeListener简单理解
- 插入排序
- 冒泡排序
- 堆排序
- 快速排序