Hadoop单机安装详细步骤
2016-07-11 00:03
453 查看
环境准备
安装Java
过程简单,这里省略具体安装步骤。安装后确认相应版本的Java已安装,这里选择1.7。java -version
创建Hadoop账号
为Hadoop创建一个专门的账号是很好的实践:sudo adduser hadoop sudo passwd hadoop
授予 Hadoop root权限
为了测试,图方便,这里给Hadoop root权限,生产环境不建议这样做。
使用root权限编辑/etc/sudoers:
sudo vim /etc/sudoers
末尾添加一行:
hadoop ALL=(ALL) ALL
切换到Hadoop账号:
su hadoop
配置SSH无密码登录
首先生成公私密钥对、ssh-keygen -t rsa
指定key pair的存放位置,回车默认存放于/home/hadoop/.ssh/id_rsa
输入passphrase,这里直接回车,为空,确保无密码可登陆。
拷贝生成的公钥到授权key文件(authorized_keys)
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
改变key权限为拥有者可读可写(0600) :
chmod 0600 ~/.ssh/authorized_keys
chomod命令参考:
chmod 600 file – owner can read and write chmod 700 file – owner can read, write and execute chmod 666 file – all can read and write chmod 777 file – all can read, write and execute
测试是否成功:
ssh localhost
下载安装
下载Hadoop 2.6.0
cd ~ wget http://apache.claz.org/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz[/code]
解压:tar -zxvf hadoop-2.6.0.tar.gz
重命名一下:mv hadoop-2.6.0 hadoop
(最好做个关联ln -s hadoop-2.6.0 hadoop)配置环境变量
vim ~/.bashrc export JAVA_HOME=/usr/java/jdk1.7.0_79/ export HADOOP_HOME=/home/hadoop/hadoop export HADOOP_INSTALL=$HADOOP_HOME export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export YARN_HOME=$HADOOP_HOME export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin source ~/.bashrc配置Hadoop
配置Hadoopcd $HADOOP_HOME/etc/hadoop vim core-site.xml<configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> </configuration>
配置HDFSvim hdfs-site.xml<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.name.dir</name> <value>file:///home/hadoop/hadoopdata/hdfs/namenode</value> </property> <property> <name>dfs.data.dir</name> <value>file:///home/hadoop/hadoopdata/hdfs/datanode</value> </property> </configuration>
配置MapReducevim mapred-site.xml<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
配置YARM:vim yarn-site.xml<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>启动集群
格式化HDFS
使用之前,需要先格式化Hadoop文件系统hdfs namenode -format启动HDFS和YARN
cd $HADOOP_HOME/sbin
启动文件系统:start-dfs.sh
启动YARN:start-yarn.sh查看状态
查看HDFS状态,浏览器访问: http://localhost:50070
查看second namenode:
http://localhost:50090
查看DataNode:
http://localhost:50075/
http://localhost:50075/dataNodeHome.jsp简单使用Hadoop:
使用HDFS
在HDFS创建两个目录:hdfs dfs -mkdir /user hdfs dfs -mkdir /user/hadoop
上传:hdfs dfs -put /opt/modules/elasticsearch-2.3.1/logs logs
从管理界面可以看到:运行MapReduce作业
提交一个MapReduce作业:hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar grep logs output 'dfs[a-z.]+'
可以从YARN应用的界面查看作业情况 http://localhost:8088
(完)
相关文章推荐
- 详解HDFS Short Circuit Local Reads
- Hadoop_2.1.0 MapReduce序列图
- 使用Hadoop搭建现代电信企业架构
- 单机版搭建Hadoop环境图文教程详解
- hadoop常见错误以及处理方法详解
- hadoop 单机安装配置教程
- hadoop的hdfs文件操作实现上传文件到hdfs
- hadoop实现grep示例分享
- Apache Hadoop版本详解
- linux下搭建hadoop环境步骤分享
- hadoop client与datanode的通信协议分析
- hadoop中一些常用的命令介绍
- Hadoop单机版和全分布式(集群)安装
- 用PHP和Shell写Hadoop的MapReduce程序
- hadoop map-reduce中的文件并发操作
- Hadoop1.2中配置伪分布式的实例
- hadoop上传文件功能实例代码
- java结合HADOOP集群文件上传下载
- Hadoop 2.x伪分布式环境搭建详细步骤
- Java访问Hadoop分布式文件系统HDFS的配置说明