您的位置:首页 > 其它

mapreduce框架内部核心工作流程

2019-06-01 18:02 1816 查看

mapreduce框架内部核心工作流程图

流程

1、mapTask调用InputFormat再调用RecourReader的read()方法来读取数据,获得key、value,mapreduce通过InputFormat来解耦
2、read()方法依靠一次读取一行的逻辑来读取原始文件的数据,返回key、value,mapTask会将其交给自定义的Mapper
3、map方法我们会调用context.write方法来输出数据到OutPutCollector类,OutPutCollector会将数据放到(内存中存放 默认MR.SORT.MB:100MB可以自己配置,一般不会放满默认80%,这里面还要留有空间排序默认20%)环形缓冲区(其实就是一个bite()数组,如果写满了,那么就会一边写一边将开始的数据回收,然后继续写到回收后的位置上,形成了环形缓冲区)
4、环形缓冲区的溢出的数据溢出之前会通过Hashpartioner进行分区、排序(默认是快速排序法key.compareTO),会通过spiller写入到mapTask工作目录的本地文件(所有溢写文件分区且区内有序)
5、所有溢出的文件会做归并排序形成mapTask的最终结果文件,一个mapTask对应一个最终结果文件,形成几个分区就会有对应几个reduceTask。reduceTask的个数由配置文件或者参数设置,只要不设置自定义partitioner,那么这里的分区会动态适配reduceTask个数。如果设置了自定义partitioner,那么就需要提前设置对应的reduceTask的个数
6、每个reduceTask都会到每一个mapTask的节点去下载分区文件到reduceTask的本地磁盘工作目录
7、为了保证最后的结果有序,reduceTask任务A需要再次从所有mapTask下载到的对应文件重新进行归并排序
8、reduceTask的内部逻辑写在reducer的reduce(key,values)方法,通过调用GroupingComparaor(key,netxtk)或者自定义GroupingComparaor来判断哪些key是一组,形成key和values。
9、reducer的reduce方法最后通过context.writer(key,v)写到输出文件(所有reduceTask的输出文件都有序),输出路径由提交任务时的参数决定,默认文件名part-r-00000
10、如果设置了combiner,那么溢写排序文件会调用,归并排序时也会combiner,将加快shluffer的效率,但是一般情况下不建议使用,如果符合条件下一定要使用,也可以直接指定reducer为combiner,没必要重复写代码

两个核心点:

map reduce编程模型:把数据运算流程分为2个阶段

阶段1:读取原始数据,形成key-value数据(map方法)

阶段2:将阶段1的key-value数据按照相同的key分组聚合(reduce方法)

mapreduce编程模型的具体实现(软件):Hadoop中的mapreduce框架;spark

hadoop中的mapreduce框架:

          对编程模型阶段1的实现就是:map task

            map task:

               读数据:InputFormat-->TextInputFormat:读文本文件

                                                -->SequenceFileInputFormat:读Sequence文件

                                                -->DBInputFormat:读数据库

                处理数据:map task通过调用Mapper类的map()方法实现对数据处理

                分区:将map阶段产生的key-value数据,分发给若干个reduce task来分担负载,map task调用Partitionner类的                                    getPartition()方法来决定如何划分数据给不同的reduce task

                对编程模型阶段2的实现就是:reduce task

                 对key-value数据排序:调用key.compareTo()方法来实现对key-value数据排序

            reduce task:

                读数据:通过HTTP方式从maptask产生的数据文件中下载属于自己的“区”的数据到本地磁盘,然后将多个同区文件(做                                 合 并,归并排序)

                处理数据:通过调用GroupingComparator的compare()方法来判断文件中的哪些key-value属于同一组,然后将这一组                                   数据传给Reducer类的reduce()方法聚合一次

                输出结果:调用OutPutFormat组件将结果key-value数据写出去

                                   OutputFormat-->TextOutputFormat:写文本文件(一对key-value写一行。分隔符号\t)

                                                         -->SequenceFileOutputFormat:写Sequence文件(直接将key-value对象序列化到文件中)

                                                          -->DBOutputFormat

    

版权@须臾之余https://my.oschina.net/u/3995125

(adsbygoogle = window.adsbygoogle || []).push({});
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  MapReduce