hadoop安装日记(四):安装和配置hadoop
2013-05-29 17:17
309 查看
以hadoop用户登录。
(一)下载hadoop:
命令行输入:wget -c http://mirror.bjtu.edu.cn/apache/hadoop/common/hadoop-1.1.2/hadoop-1.1.2.tar.gz /usr/local/
把hadoop下载到 /home/hadoop目录
(二)解压缩
命令行输入: sudo tar xzf hadoop-1.1.2.tar.gz
(三)重命名
命令行输入:mv hadoop-1.1.2.tar.gz hadoop
(四)配置/etc/profile
命令行终端输入:sudo gedit /etc/profile
适当修改原有内容,添加内容如下:
export JAVA_HOME=/usr/lib/jvm/jdk
export HADOOP_HOME=/home/hadoop/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/lib:$JAVA_HOME/bin
export HADOOP_HOME_WARN_SUPPRESS=1 #忽略hadoop的警告。
(五)配置修改conf/hadoop-env.sh,添加jdk支持
命令行终端输入:sudo gedit hadoop/conf/hadoop-env.sh
启动gedit后,在文档中 设置:
export JAVA_HOME=/usr/lib/jvm/jdk,注意把本行开头的“#”去掉。
(六)修改conf/cor-site.xml配置如下:
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value> //决定namenode
</property>
<property>
<name>Hadoop.tmp.dir</name>
<value>/home/Hadoop/tmp</value> //临时文件,有问题的时候,可以删除
<description>A base for other temporary directories.</description>
</property>
(七)配置conf/hdfs-site.xml,增加下面内容:
<property>
<name>dfs.name.dir</name>
<value>/home/Hadoop/name</value>
<description>namenode持久存储名字空间,事务日志的本地路径 </description>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/Hadoop/data</value>
<description>datanode存放数据的路径 </description>
</property>
<property>
<name>dfs.datanode.max.xcievers</name>
<value>4096</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
<description>数据备份的个数,默认是3 </description>
</property>
(八)配置conf/mapred-site.xml内容如下:
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
(九)修改conf/masters,这个决定那个是secondarynamenode ,里边只保留下面的内容
localhost
修改conf/slaves,这个是所有datanode的机器 ,里边只保留下面的内容
localhost
(十) 以root登录,修改 /etc/hosts
里边只保留 127.0.0.1 localhost 这个对应行。
(十一)启动hadoop服务。
回到hadoop用户。
登录:
ssh localhost
格式化hdfs文件系统的namenode
命令行输入:
bin/hadoop namenode -format
启动Hadoop集群
命令行输入:hadoop/bin/start-all.sh
测试方法一:jps,查看结果。显示各个节点情况。
测试方法二:打开浏览器,分别输入以下网址:
http://localhost:50030 (MapReduce的Web页面)
http://localhost:50070 (HDfS的web页面)
如果能成功访问,则说明Hadoop安装成功
(一)下载hadoop:
命令行输入:wget -c http://mirror.bjtu.edu.cn/apache/hadoop/common/hadoop-1.1.2/hadoop-1.1.2.tar.gz /usr/local/
把hadoop下载到 /home/hadoop目录
(二)解压缩
命令行输入: sudo tar xzf hadoop-1.1.2.tar.gz
(三)重命名
命令行输入:mv hadoop-1.1.2.tar.gz hadoop
(四)配置/etc/profile
命令行终端输入:sudo gedit /etc/profile
适当修改原有内容,添加内容如下:
export JAVA_HOME=/usr/lib/jvm/jdk
export HADOOP_HOME=/home/hadoop/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/lib:$JAVA_HOME/bin
export HADOOP_HOME_WARN_SUPPRESS=1 #忽略hadoop的警告。
(五)配置修改conf/hadoop-env.sh,添加jdk支持
命令行终端输入:sudo gedit hadoop/conf/hadoop-env.sh
启动gedit后,在文档中 设置:
export JAVA_HOME=/usr/lib/jvm/jdk,注意把本行开头的“#”去掉。
(六)修改conf/cor-site.xml配置如下:
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value> //决定namenode
</property>
<property>
<name>Hadoop.tmp.dir</name>
<value>/home/Hadoop/tmp</value> //临时文件,有问题的时候,可以删除
<description>A base for other temporary directories.</description>
</property>
(七)配置conf/hdfs-site.xml,增加下面内容:
<property>
<name>dfs.name.dir</name>
<value>/home/Hadoop/name</value>
<description>namenode持久存储名字空间,事务日志的本地路径 </description>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/Hadoop/data</value>
<description>datanode存放数据的路径 </description>
</property>
<property>
<name>dfs.datanode.max.xcievers</name>
<value>4096</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
<description>数据备份的个数,默认是3 </description>
</property>
(八)配置conf/mapred-site.xml内容如下:
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
(九)修改conf/masters,这个决定那个是secondarynamenode ,里边只保留下面的内容
localhost
修改conf/slaves,这个是所有datanode的机器 ,里边只保留下面的内容
localhost
(十) 以root登录,修改 /etc/hosts
里边只保留 127.0.0.1 localhost 这个对应行。
(十一)启动hadoop服务。
回到hadoop用户。
登录:
ssh localhost
格式化hdfs文件系统的namenode
命令行输入:
bin/hadoop namenode -format
启动Hadoop集群
命令行输入:hadoop/bin/start-all.sh
测试方法一:jps,查看结果。显示各个节点情况。
测试方法二:打开浏览器,分别输入以下网址:
http://localhost:50030 (MapReduce的Web页面)
http://localhost:50070 (HDfS的web页面)
如果能成功访问,则说明Hadoop安装成功
相关文章推荐
- hadoop安装日记(二):ubuntu12.04 安装配置jdk1.7
- Hadoop日记——安装、配置、启动HDFS
- hadoop-(1)集群安装及配置
- 转载:Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04
- hadoop在ubuntu下的安装配置
- Hadoop-2.7.3环境下Hive-2.1.1安装配置。
- Hadoop安装配置
- Hadoop初识--Hadoop单机模式安装和环境配置
- CHD4B1(hadoop-0.23)实现NameNode HA安装配置
- hadoop伪分布安装配置
- Hadoop集群系列:Hadoop安装配置(1)
- centos7 安装hadoop:伪分布式配置、全分布模式配置
- Hadoop HBase 配置 安装 Snappy 终极教程
- Hadoop 0.20.2 安装配置说明【转】
- Windows下Cygwin环境的Hadoop安装(1)- Cygwin安装和配置
- Hadoop 2.x安装教程_单机/伪分布式配置_Ubuntu14.04 64bitx
- Ubuntu系统(64位)下安装并配置Hadoop-2.2.0集群
- 【Hadoop环境配置】Hadoop安装,配置和试用
- Ubuntu16.04下Hadoop 2.7.3的安装与配置
- hbase安装配置(整合到hadoop)