大数据 (八)Hadoop-MapReduce 运行环境之 yarn环境搭建
2017-07-30 19:41
561 查看
yarn说明
如下图所示:
Resource Manager是主节点,Node Manager是从节点。其中主节点负责任务的调度,从节点负责线程的执行。
Node Manager和 datanode在同一个机器下。
Client将写好的程序(jar包)提交给Resource Manager,Resource Manage会将jar包给每一个Node
Manager传送。程序由App Master执行。
App Master是namenode的一个组件,专门负责任务的执行。执行时候App Master要去Resource Manager申请资源,分配好资源和App Master就会有一个Container。
搭建步骤
一、进入hadoop配置文件目录,编辑yarn配置文件
vi /home/hadoop-2.5.1/etc/hadoop/yarn-site.xml
二、将上述文件<configuration>标签内容改为下方所示
mv mapred-site.xml.template mapred-site.xml
将目录下的mapred-site.xml.template文件重命名为mapred-site.xml
四、编辑mapred-site.xml文件,配置如下
五、在node1上执行命令
start-yarn.sh
启动yarn主节点
六、在node2上执行命令
yarn-daemon.sh start resourcemanager
启动yarn备用节点
七、浏览器输入192.168.1.201:8088可以看到下图resource监控页面
八、浏览器输入192.168.1.202:8088可以看到下图页面
九、关掉主resourcemanager,测试node2是否会接管
在node上执行jps得到下图
上图可以看出resourcemanage的进程id是6178我们执行命令
kill -9 6178
杀掉这个进程
然后在浏览器地址栏输入192.168.1.202:8088,发现可以进入web监控页面(datanode的监控信息需要等待一会才可以看到)
如下图所示:
Resource Manager是主节点,Node Manager是从节点。其中主节点负责任务的调度,从节点负责线程的执行。
Node Manager和 datanode在同一个机器下。
Client将写好的程序(jar包)提交给Resource Manager,Resource Manage会将jar包给每一个Node
Manager传送。程序由App Master执行。
App Master是namenode的一个组件,专门负责任务的执行。执行时候App Master要去Resource Manager申请资源,分配好资源和App Master就会有一个Container。
搭建步骤
一、进入hadoop配置文件目录,编辑yarn配置文件
vi /home/hadoop-2.5.1/etc/hadoop/yarn-site.xml
二、将上述文件<configuration>标签内容改为下方所示
<property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.ha.enabled</name> <value>true</value> </property> <property> <name>yarn.resourcemanager.cluster-id</name> <value>bjsxt</value> </property> <property> <name>yarn.resourcemanager.ha.rm-ids</name> <value>rm1,rm2</value> </property> <property> <name>yarn.resourcemanager.hostname.rm1</name> <value>node1</value> </property> <property> <name>yarn.resourcemanager.hostname.rm2</name> <value>node2</value> </property> <property> <name>yarn.resourcemanager.zk-address</name> <value>node1:2181,node2:2181,node3:2181</value> </property>三、进入hadoop安装目录下的etc/hadoop目录,执行命令:
mv mapred-site.xml.template mapred-site.xml
将目录下的mapred-site.xml.template文件重命名为mapred-site.xml
四、编辑mapred-site.xml文件,配置如下
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>这个配置表示reduce启动后被yarn接管
五、在node1上执行命令
start-yarn.sh
启动yarn主节点
六、在node2上执行命令
yarn-daemon.sh start resourcemanager
启动yarn备用节点
七、浏览器输入192.168.1.201:8088可以看到下图resource监控页面
八、浏览器输入192.168.1.202:8088可以看到下图页面
九、关掉主resourcemanager,测试node2是否会接管
在node上执行jps得到下图
上图可以看出resourcemanage的进程id是6178我们执行命令
kill -9 6178
杀掉这个进程
然后在浏览器地址栏输入192.168.1.202:8088,发现可以进入web监控页面(datanode的监控信息需要等待一会才可以看到)
相关文章推荐
- hadoop初识之三:搭建hadoop环境(配置HDFS,Yarn及mapreduce 运行在yarn)上及三种运行模式(本地模式,伪分布式和分布式介)
- Hadoop环境搭建之二配置启动HDFS及本地模式运行MapReduce案例(使用HDFS上数据)
- Hadoop环境搭建三之配置部署启动YARN以及在YARN上运行MapReduce程序
- Hadoop 2.x环境搭建之三配置部署启动YARN及在YARN上运行MapReduce程序
- Hadoop2.x环境搭建之搭建伪分布模式以及运行wordcount案例【HDFS上的数据】
- hadoop-企业版环境搭建(三)-mapreduce和yarn的安装
- Hadoop环境搭建之一安装jdk,hadoop基本配置及运行MapReduce案例在本地模式下
- hadoop on yarn 入门系列1-伪分布式环境搭建并运行wordcount
- hadoop基础----hadoop实战(四)-----myeclipse开发MapReduce---myeclipse搭建hadoop开发环境并运行wordcount
- Hadoop那些事儿(二)---MapReduce开发环境搭建
- hadoop学习之HDFS(2.1):linux下eclipse中配置hadoop-mapreduce开发环境并运行WordCount.java程序
- 【数据平台】Eclipse+MapReduce开发环境(集群运行模式)
- Hadoop2.x实战:Eclipse本地开发环境搭建与本地运行wordcount实例
- Java+大数据开发——Hadoop集群环境搭建(二)
- (1)Solr:配置搭建运行环境&数据导入
- [大数据]连载No1之Hadoop概念和伪分布式集群环境搭建
- HBase、Hive、MapReduce、Hadoop、Spark 开发环境搭建后的一些步骤(export导出jar包方式 或 Ant 方式)
- Hadoop环境搭建2_hadoop安装和运行环境
- hadoop2.7.3 HA YARN 环境搭建
- 大数据生态系统基础:Hadoop(七):Hadoop MapReduce 工作原理和 YARN架构