您的位置:首页 > 运维架构

hadoop的伪分布模式配置

2016-08-14 18:37 204 查看
主要配置5个配置文件:core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml、slaves。


1:配置core-site.xml

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost</value>
</property>
</configuration>


2:配置hdfs-site.xml

<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>

//其中“1”表示有多少个备份副本


3:配置mapred-site.xml,(注意:这个文件默认是没有的,项目提供一个样本mapred-queues.xml.template,可以将这个cp一份)

cp mapred-site.xml.template mapred-site.xml


<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>


4:配置yarn-site.xml

<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>localhost</value>
</property>

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>


5:配置slaves文件(指定datanode的主机)

只需要输入:localhost 即可,因为是伪分布模式,所以datanode也在本地系统
如果是完全分布模式,则需要配置对应datanode节点的ip或主机名称


总结:

1:配置文件一定要注意名称和值是否一定准确,否则会是的系统找不到这些信息的

2:hadoop采用的是cluster/slaves的模式,slaves文件就是指明
那几个数据节点在那台机上部署datanode。

3:可以很方便的将这个伪分布模式的文件转化为完全分布式模式,
只需要将需要部署相关守护进程的机器ip填入相应位置即可。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  hadoop配置