您的位置:首页 > 运维架构

Ubuntu Hadoop 2.6.0 单机版配置图文详解

2015-05-28 23:03 459 查看
1、安装 JDK
①、下载 jdk-7u79-linux-x64.tar.gz(http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html)
②、将 jdk-7u79-linux-x64.tar.gz 解压缩到 /usr/local/java/ 目录下,解压命令:
tar -xzvf jdk-7u79-linux-x64.tar.gz /usr/local/java/ 
如图:



③、配置环境变量,在 /etc/profile 文件最后追加上入下所示代码:

JAVA_HOME=/usr/local/java/jdk1.7.0_79

JRE_HOME=$JAVA_HOME/jre

CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

PATH=$PATH:$JAVA_HOME/bin

export JAVA_HOME JRE_HOME CLASSPATH PATH


2、安装hadoop
①、下载 hadoop-2.6.0.tar.gz(https://dist.apache.org/repos/dist/release/hadoop/common/hadoop-2.6.0/)
②、将 hadoop-2.6.0.tar.gz 解压缩到 /usr/local/hadoop/ 目录下,解压命令:

tar -xzvf hadoop-2.6.0.tar  .gz /usr/local/hadoop/
如图:



3、配置 hadoop
①、进入hadoop的目录/etc/hadoop/文件夹下,修改hadoop-env.sh文件配置JDK,为Hadoop的守护进程设置环境变量

vi hadoop-env.sh 
追加如下图所示信息:



②、配置hadoop的目录/etc/hadoop/core-site.xml,配置HDFS的地址和端口,NameNode的IP地址及端口

vi core-site.xml
文件配置如下:

<configuration>       

         <property>

                <name>fs.defaultFS</name>

                <value>hdfs://localhost:9000</value>

        </property>

        <property>

                <name>hadoop.tmp.dir</name>

                <value>/home/hadoop_tmp</value>

        </property>

</configuration>
 
③、配置hadoop的目录/etc/hadoop/hdfs-site.xml,HDFS配置备份方式默认为3,单机版本中需要改为1

vi hdfs-site.xml
配置如下:

<configuration>

        <property>

                <name>dfs.namenode.name.dir</name>

                <value>/home/hadoop_tmp/dfs/name</value>

                <description>Path on the local filesystem where the NameNode stores the namespace and transactions logs persistently.</description>

        </property>

        <property>

                <name>dfs.datanode.data.dir</name>

                <value>/home/hadoop_tmp/dfs/data</value>

                <description>Comma separated list of paths on the local filesystem of a DataNode where it should store its blocks.</description>

        </property>

        <property>

                <name>dfs.replication</name>

                <value>1</value>

        </property>

</configuration>
4、在启动hadoop之前需要格式化hadoop的文件系统 HDFS

# bin/hdfs namenode -format
5、进入hadoop文件夹,输入下面命令:

# sbin/start-dfssh
如图所示:是启动时候日志输出的位置



使用 jps 命令查看是否启动成功,如图所示:



浏览器访问测试地址:
HDFS:http://192.168.31.188:50070
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  hadoop