hadoop运行的幕后角色
2016-09-19 17:40
106 查看
Hadoop这头大 象奔跑起来,需要在集群中运行一系列后台(deamon)程序。不同的后台程序扮演不用的角色,这些角色由NameNode、DataNode、 Secondary NameNode、JobTracker、TaskTracker组成。其中NameNode、Secondary
NameNode、JobTracker运行在Master节点上,而在每个Slave节点上,部署一个DataNode和TaskTracker,以便这个Slave服务器运行的数据处理程序能尽可能直接处理本机的数据。对Master节点需要特别说明的是,在小集群中,Secondary NameNode可以属于某个从节点;在大型集群中,NameNode和JobTracker被分别部署在两台服务器上。
Hadoop是一个能够对大量数据进行分布式处理的软件框架,实现了Google的MapReduce编程模型和框架,能够把应用程序分割成许多的小的工作单元,并把这些单元放到任何集群节点上执行。Hadoop提供的分布式文件系统(HDFS)主要负责各个节点的数据存储,并实现了 高吞吐率的数据读写。
1、job 一个准备提交执行的应用程序称为“作业(job)”;
2、task 从一个job划分出来、运行于各个计算节点的工作单元称为“任务(task)”。
3、jobtracker 负责集群作业控制和资源管理,是mapreduce框架的大脑。
那么MapReduce在这个过程中到底做了那些事情呢?这就是本文以及接下来的一片博文将要讨论的问题,当然本文主要是围绕客户端在作业的提交过程中的工作来展开。先从全局来把握这个过程吧!
JobClient
配置好作业之后,就可以向JobTracker提交该作业了,然后JobTracker才能安排适当的TaskTracker来完成该作业。(JobTracker是mapreduce框架中的主服务器,TaskTracker是从服务器)。
NameNode、JobTracker运行在Master节点上,而在每个Slave节点上,部署一个DataNode和TaskTracker,以便这个Slave服务器运行的数据处理程序能尽可能直接处理本机的数据。对Master节点需要特别说明的是,在小集群中,Secondary NameNode可以属于某个从节点;在大型集群中,NameNode和JobTracker被分别部署在两台服务器上。
Hadoop是一个能够对大量数据进行分布式处理的软件框架,实现了Google的MapReduce编程模型和框架,能够把应用程序分割成许多的小的工作单元,并把这些单元放到任何集群节点上执行。Hadoop提供的分布式文件系统(HDFS)主要负责各个节点的数据存储,并实现了 高吞吐率的数据读写。
1、job 一个准备提交执行的应用程序称为“作业(job)”;
2、task 从一个job划分出来、运行于各个计算节点的工作单元称为“任务(task)”。
3、jobtracker 负责集群作业控制和资源管理,是mapreduce框架的大脑。
那么MapReduce在这个过程中到底做了那些事情呢?这就是本文以及接下来的一片博文将要讨论的问题,当然本文主要是围绕客户端在作业的提交过程中的工作来展开。先从全局来把握这个过程吧!
JobClient
配置好作业之后,就可以向JobTracker提交该作业了,然后JobTracker才能安排适当的TaskTracker来完成该作业。(JobTracker是mapreduce框架中的主服务器,TaskTracker是从服务器)。
相关文章推荐
- Ubuntu下Eclipse中运行Hadoop程序的参数问题
- Ubuntu12.04+hadoop-1.1.2运行wordcount示例
- hadoop运行eclipse简单实例
- Hadoop示例程序WordCount运行及详解
- hadoop中的一些基本操作及wordcount的运行操作示范
- hadoop运行及基本命令
- 运行HBase应用开发程序产生异常,提示信息包含org.apache.hadoop.hbase.ipc.controller.ServerRpcControllerFactory的解决办法
- Hadoop小兵笔记【三】利用Eclipse将wordcount打包成可以运行在hadoop上的jar包
- Hadoop Shuffle运行原理
- Eclipse编译运行MapReduce程序 Hadoop
- 【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群-配置Hadoop-伪分布模式并运行Wordcount(2)
- hadoop2.7.3 编译运行WordCount.java
- hadoop集群运行jps命令以后Datanode节点未启动的解决办法
- hadoop yarn运行jar包 出错 RunJar jarFile [mainClass] args...
- hadoop程序运行
- hadoop yarn的运行机制
- Hadoop学习笔记之四:运行MapReduce作业做集成测试
- 使用Eclipse编译运行MapReduce程序 Hadoop2.6.0/Ubuntu
- 让mahout0.7在hadoop2.0环境下运行
- 运行Hadoop WordCount