Ubuntu Hadoop 2.6.0 单机版配置图文详解
2015-05-28 23:03
459 查看
1、安装 JDK
①、下载 jdk-7u79-linux-x64.tar.gz(http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html)
②、将 jdk-7u79-linux-x64.tar.gz 解压缩到 /usr/local/java/ 目录下,解压命令:
如图:
③、配置环境变量,在 /etc/profile 文件最后追加上入下所示代码:
2、安装hadoop
①、下载 hadoop-2.6.0.tar.gz(https://dist.apache.org/repos/dist/release/hadoop/common/hadoop-2.6.0/)
②、将 hadoop-2.6.0.tar.gz 解压缩到 /usr/local/hadoop/ 目录下,解压命令:
如图:
3、配置 hadoop
①、进入hadoop的目录/etc/hadoop/文件夹下,修改hadoop-env.sh文件配置JDK,为Hadoop的守护进程设置环境变量
追加如下图所示信息:
②、配置hadoop的目录/etc/hadoop/core-site.xml,配置HDFS的地址和端口,NameNode的IP地址及端口
文件配置如下:
③、配置hadoop的目录/etc/hadoop/hdfs-site.xml,HDFS配置备份方式默认为3,单机版本中需要改为1
配置如下:
4、在启动hadoop之前需要格式化hadoop的文件系统 HDFS
5、进入hadoop文件夹,输入下面命令:
如图所示:是启动时候日志输出的位置
使用 jps 命令查看是否启动成功,如图所示:
浏览器访问测试地址:
HDFS:http://192.168.31.188:50070
①、下载 jdk-7u79-linux-x64.tar.gz(http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html)
②、将 jdk-7u79-linux-x64.tar.gz 解压缩到 /usr/local/java/ 目录下,解压命令:
tar -xzvf jdk-7u79-linux-x64.tar.gz /usr/local/java/ |
③、配置环境变量,在 /etc/profile 文件最后追加上入下所示代码:
JAVA_HOME=/usr/local/java/jdk1.7.0_79 JRE_HOME=$JAVA_HOME/jre CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar PATH=$PATH:$JAVA_HOME/bin export JAVA_HOME JRE_HOME CLASSPATH PATH |
2、安装hadoop
①、下载 hadoop-2.6.0.tar.gz(https://dist.apache.org/repos/dist/release/hadoop/common/hadoop-2.6.0/)
②、将 hadoop-2.6.0.tar.gz 解压缩到 /usr/local/hadoop/ 目录下,解压命令:
tar -xzvf hadoop-2.6.0.tar .gz /usr/local/hadoop/ |
3、配置 hadoop
①、进入hadoop的目录/etc/hadoop/文件夹下,修改hadoop-env.sh文件配置JDK,为Hadoop的守护进程设置环境变量
vi hadoop-env.sh |
②、配置hadoop的目录/etc/hadoop/core-site.xml,配置HDFS的地址和端口,NameNode的IP地址及端口
vi core-site.xml |
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop_tmp</value> </property> </configuration> |
vi hdfs-site.xml |
<configuration> <property> <name>dfs.namenode.name.dir</name> <value>/home/hadoop_tmp/dfs/name</value> <description>Path on the local filesystem where the NameNode stores the namespace and transactions logs persistently.</description> </property> <property> <name>dfs.datanode.data.dir</name> <value>/home/hadoop_tmp/dfs/data</value> <description>Comma separated list of paths on the local filesystem of a DataNode where it should store its blocks.</description> </property> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> |
# bin/hdfs namenode -format |
# sbin/start-dfssh |
使用 jps 命令查看是否启动成功,如图所示:
浏览器访问测试地址:
HDFS:http://192.168.31.188:50070
相关文章推荐
- 详解HDFS Short Circuit Local Reads
- Hadoop_2.1.0 MapReduce序列图
- 使用Hadoop搭建现代电信企业架构
- 单机版搭建Hadoop环境图文教程详解
- hadoop常见错误以及处理方法详解
- hadoop 单机安装配置教程
- hadoop的hdfs文件操作实现上传文件到hdfs
- hadoop实现grep示例分享
- Apache Hadoop版本详解
- linux下搭建hadoop环境步骤分享
- hadoop client与datanode的通信协议分析
- hadoop中一些常用的命令介绍
- Hadoop单机版和全分布式(集群)安装
- 用PHP和Shell写Hadoop的MapReduce程序
- hadoop map-reduce中的文件并发操作
- Hadoop1.2中配置伪分布式的实例
- java结合HADOOP集群文件上传下载
- 用python + hadoop streaming 分布式编程(一) -- 原理介绍,样例程序与本地调试
- Hadoop安装感悟
- hadoop安装lzo