您的位置:首页 > 运维架构

Hadoopz安装与配置-单机(1)

2012-09-16 23:20 295 查看
Hadoop 分别从三个角度将主机划分为两种角色。第一,划分为master 和slave,即主人
与奴隶;第二,从HDFS 的角度,将主机划分为NameNode 和DataNode(在分布式文件系
统中,目录的管理很重要,管理目录的就相当于主人,而NameNode 就是目录管理者);第
三,从MapReduce 的角度,将主机划分为JobTracker 和TaskTracker(一个job 经常被划分
为多个task,从这个角度不难理解它们之间的关系)。
Hadoop 有官方发行版与cloudera 版,其中cloudera 版是Hadoop 的商用版本,这里先介
绍Hadoop 官方发行版的安装方法。
Hadoop 有三种运行方式:单节点方式、单机伪分布方式与集群方式。乍看之下,前两
种方式并不能体现云计算的优势,在实际应用中并没有什么意义,但是在程序的测试与调试
过程中,它们还是很有意义的。
你可以通过以下地址获得Hadoop 的官方发行版:
http://www.apache.org/dyn/closer.cgi/Hadoop/core/
下载Hadoop-0.20.2.tar.gz 并将其解压,这里会解压到用户目录下,一般为:/home/[ 你的
用户名]/。

1 单节点方式配置:
安装单节点的Hadoop 无须配置,在这种方式下,Hadoop 被认为是一个单独的Java 进
程,这种方式经常用来调试。
2 伪分布式配置:
你可以把伪分布式的Hadoop 看做是只有一个节点的集群,在这个集群中,这个节点既是
master,也是slave ;既是NameNode 也是DataNode ;既是JobTracker,也是TaskTracker。
伪分布式的配置过程也很简单,只需要修改几个文件,如下所示。
进入conf 文件夹,修改配置文件:
Hadoop-env.sh:
export JAVA_HOME=“你的JDK 安装地址”
指定JDK 的安装位置:
conf/core-site.xml:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
这是Hadoop 核心的配置文件,这里配置的是HDFS 的地址和端口号。
conf/hdfs-site.xml:
<configuration>
<property>
<name>dfs.replication</name>

<value>1</value>
</property>
</configuration>
这是Hadoop 中HDFS 的配置,配置的备份方式默认为3,在单机版的Hadoop 中,需要
将其改为1。
conf/mapred-site.xml:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
这是Hadoop 中MapReduce 的配置文件,配置的是JobTracker 的地址和端口。
需要注意的是,如果安装的是0.20 之前的版本,那么只有一个配置文件,即为Hadoopsite.
xml。
接下来,在启动Hadoop 前,需格式化Hadoop 的文件系统HDFS(这点与Windows 是
一样的,重新分区后的卷总是需要格式化的)。进入Hadoop 文件夹,输入下面的命令:
bin/Hadoop NameNode -format
格式化文件系统,接下来启动Hadoop。
输入命令:
bin/start-all.sh(全部启动)
最后,验证Hadoop 是否安装成功。
打开浏览器,分别输入网址:
http://localhost:50030 (MapReduce 的Web 页面)
http://localhost:50070 (HDFS 的Web 页面)
如果都能查看,说明Hadoop 已经安装成功。
对于Hadoop 来说,安装MapReduce 及HDFS 都是必须的,但是如果有必要,你依然可
以只启动HDFS(start-dfs.sh)或MapReduce(start-mapred.sh)。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: