您的位置:首页 > 运维架构

hadoop安装日记(四):安装和配置hadoop

2013-05-29 17:17 309 查看
以hadoop用户登录。

(一)下载hadoop:

命令行输入:wget -c http://mirror.bjtu.edu.cn/apache/hadoop/common/hadoop-1.1.2/hadoop-1.1.2.tar.gz /usr/local/

把hadoop下载到 /home/hadoop目录

(二)解压缩

命令行输入: sudo tar xzf hadoop-1.1.2.tar.gz

(三)重命名

命令行输入:mv hadoop-1.1.2.tar.gz hadoop

(四)配置/etc/profile

命令行终端输入:sudo gedit /etc/profile

适当修改原有内容,添加内容如下:

export JAVA_HOME=/usr/lib/jvm/jdk

export HADOOP_HOME=/home/hadoop/hadoop

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/lib:$JAVA_HOME/bin

export HADOOP_HOME_WARN_SUPPRESS=1 #忽略hadoop的警告。

(五)配置修改conf/hadoop-env.sh,添加jdk支持

命令行终端输入:sudo gedit hadoop/conf/hadoop-env.sh

启动gedit后,在文档中 设置:

export JAVA_HOME=/usr/lib/jvm/jdk,注意把本行开头的“#”去掉。

(六)修改conf/cor-site.xml配置如下:

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value> //决定namenode

</property>

<property>

<name>Hadoop.tmp.dir</name>

<value>/home/Hadoop/tmp</value> //临时文件,有问题的时候,可以删除

<description>A base for other temporary directories.</description>

</property>

(七)配置conf/hdfs-site.xml,增加下面内容:

<property>

<name>dfs.name.dir</name>

<value>/home/Hadoop/name</value>

<description>namenode持久存储名字空间,事务日志的本地路径 </description>

</property>

<property>

<name>dfs.data.dir</name>

<value>/home/Hadoop/data</value>

<description>datanode存放数据的路径 </description>

</property>

<property>

<name>dfs.datanode.max.xcievers</name>

<value>4096</value>

</property>

<property>

<name>dfs.replication</name>

<value>1</value>

<description>数据备份的个数,默认是3 </description>

</property>

(八)配置conf/mapred-site.xml内容如下:

<property>

<name>mapred.job.tracker</name>

<value>localhost:9001</value>

</property>

(九)修改conf/masters,这个决定那个是secondarynamenode ,里边只保留下面的内容

localhost

修改conf/slaves,这个是所有datanode的机器 ,里边只保留下面的内容

localhost

(十) 以root登录,修改 /etc/hosts

里边只保留 127.0.0.1 localhost 这个对应行。

(十一)启动hadoop服务。

回到hadoop用户。

登录:

ssh localhost

格式化hdfs文件系统的namenode

命令行输入:

bin/hadoop namenode -format

启动Hadoop集群

命令行输入:hadoop/bin/start-all.sh

测试方法一:jps,查看结果。显示各个节点情况。

测试方法二:打开浏览器,分别输入以下网址:
http://localhost:50030 (MapReduce的Web页面)
http://localhost:50070 (HDfS的web页面)

如果能成功访问,则说明Hadoop安装成功
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: