hadoop中map和reduce的数量设置问题
2017-03-17 13:07
706 查看
原文: http://my.oschina.net/Chanthon/blog/150500
map和reduce是hadoop的核心功能,hadoop正是通过多个map和reduce的并行运行来实现任务的分布式并行计算,
从这个观点来看,如果将map和reduce的数量设置为1,那么用户的任务就没有并行执行,
但是map和reduce的数量也不能过多,数量过多虽然可以提高任务并行度,
但是太多的map和reduce也会导致整个hadoop框架因为过度的系统资源开销而使任务失败。
所以用户在提交map/reduce作业时应该在一个合理的范围内,
这样既可以增强系统负载匀衡,也可以降低任务失败的开销。
1 map的数量
map的数量通常是由hadoop集群的DFS块大小确定的,也就是输入文件的总块数,
正常的map数量的并行规模大致是每一个Node是10~100个,对于CPU消耗较小的作业可以设置Map数量为300个左右,
但是由于hadoop的没一个任务在初始化时需要一定的时间,因此比较合理的情况是每个map执行的时间至少超过1分钟。
具体的数据分片是这样的,InputFormat在默认情况下会根据hadoop集群的DFS块大小进行分片,
每一个分片会由一个map任务来进行处理,当然用户还是可以通过参数mapred.min.split.size参数在作业提交客户端进行自定义设置。
还有一个重要参数就是mapred.map.tasks,这个参数设置的map数量仅仅是一个提示,只有当InputFormat
决定了map任务的个数比mapred.map.tasks值小时才起作用。同样,Map任务的个数也能
通过使用JobConf 的conf.setNumMapTasks(int num)方法来手动地设置。这个方法能够用来增加map任务的个数,
但是不能设定任务的个数小于Hadoop系统通过分割输入数据得到的值。当然为了提高集群的并发效率,
可以设置一个默认的map数量,当用户的map数量较小或者比本身自动分割的值还小时可以使用一个相对交大的默认值,
从而提高整体hadoop集群的效率。
2 reduece的数量
reduce在运行时往往需要从相关map端复制数据到reduce节点来处理,因此相比于map任务。
reduce节点资源是相对比较缺少的,同时相对运行较慢,正确的reduce任务的个数应该
是0.95或者1.75 *(节点数 ×mapred.tasktracker.tasks.maximum参数值)。如果任务数是节点个数的0.95倍,
那么所有的reduce任务能够在 map任务的输出传输结束后同时开始运行。如果任务数是节点个数的1.75倍,
那么高速的节点会在完成他们第一批reduce任务计算之后开始计算第二批 reduce任务,这样的情况更有利于负载均衡。
同时需要注意增加reduce的数量虽然会增加系统的资源开销,但是可以改善负载匀衡,降低任务失败带来的负面影响。
同样,Reduce任务也能够与 map任务一样,通过设定JobConf 的conf.setNumReduceTasks(int num)方法来增加任务个数。
3 reduce数量为0
有些作业不需要进行归约进行处理,那么就可以设置reduce的数量为0来进行处理,这种情况下用户的作业运行速度相对较高,
map的输出会直接写入到 SetOutputPath(path)设置的输出目录,而不是作为中间结果写到本地。同时Hadoop框架在写入文件系统前并不对之进行排序。
map red.tasktracker.map.tasks.maximum 这个是一个task tracker中可同时执行的map的最大个数,默认值为2,
总结:Map个数取决于文件分块的个数,可以手动设置Map的数量,但是必须不能小于文件分块的数量。
Reduce个数一般为0.95或1.75×(节点数
×mapred.tasktracker.tasks.maximum参数值),map red.tasktracker.map.tasks.maximum 这个是一个task tracker中可同时执行的map的最大个数,默认值为2。也可以手动设置,增加Reduce个数。当不需要规约处理时,可以设置Reduce数量为0。
map和reduce是hadoop的核心功能,hadoop正是通过多个map和reduce的并行运行来实现任务的分布式并行计算,
从这个观点来看,如果将map和reduce的数量设置为1,那么用户的任务就没有并行执行,
但是map和reduce的数量也不能过多,数量过多虽然可以提高任务并行度,
但是太多的map和reduce也会导致整个hadoop框架因为过度的系统资源开销而使任务失败。
所以用户在提交map/reduce作业时应该在一个合理的范围内,
这样既可以增强系统负载匀衡,也可以降低任务失败的开销。
1 map的数量
map的数量通常是由hadoop集群的DFS块大小确定的,也就是输入文件的总块数,
正常的map数量的并行规模大致是每一个Node是10~100个,对于CPU消耗较小的作业可以设置Map数量为300个左右,
但是由于hadoop的没一个任务在初始化时需要一定的时间,因此比较合理的情况是每个map执行的时间至少超过1分钟。
具体的数据分片是这样的,InputFormat在默认情况下会根据hadoop集群的DFS块大小进行分片,
每一个分片会由一个map任务来进行处理,当然用户还是可以通过参数mapred.min.split.size参数在作业提交客户端进行自定义设置。
还有一个重要参数就是mapred.map.tasks,这个参数设置的map数量仅仅是一个提示,只有当InputFormat
决定了map任务的个数比mapred.map.tasks值小时才起作用。同样,Map任务的个数也能
通过使用JobConf 的conf.setNumMapTasks(int num)方法来手动地设置。这个方法能够用来增加map任务的个数,
但是不能设定任务的个数小于Hadoop系统通过分割输入数据得到的值。当然为了提高集群的并发效率,
可以设置一个默认的map数量,当用户的map数量较小或者比本身自动分割的值还小时可以使用一个相对交大的默认值,
从而提高整体hadoop集群的效率。
2 reduece的数量
reduce在运行时往往需要从相关map端复制数据到reduce节点来处理,因此相比于map任务。
reduce节点资源是相对比较缺少的,同时相对运行较慢,正确的reduce任务的个数应该
是0.95或者1.75 *(节点数 ×mapred.tasktracker.tasks.maximum参数值)。如果任务数是节点个数的0.95倍,
那么所有的reduce任务能够在 map任务的输出传输结束后同时开始运行。如果任务数是节点个数的1.75倍,
那么高速的节点会在完成他们第一批reduce任务计算之后开始计算第二批 reduce任务,这样的情况更有利于负载均衡。
同时需要注意增加reduce的数量虽然会增加系统的资源开销,但是可以改善负载匀衡,降低任务失败带来的负面影响。
同样,Reduce任务也能够与 map任务一样,通过设定JobConf 的conf.setNumReduceTasks(int num)方法来增加任务个数。
3 reduce数量为0
有些作业不需要进行归约进行处理,那么就可以设置reduce的数量为0来进行处理,这种情况下用户的作业运行速度相对较高,
map的输出会直接写入到 SetOutputPath(path)设置的输出目录,而不是作为中间结果写到本地。同时Hadoop框架在写入文件系统前并不对之进行排序。
map red.tasktracker.map.tasks.maximum 这个是一个task tracker中可同时执行的map的最大个数,默认值为2,
总结:Map个数取决于文件分块的个数,可以手动设置Map的数量,但是必须不能小于文件分块的数量。
Reduce个数一般为0.95或1.75×(节点数
×mapred.tasktracker.tasks.maximum参数值),map red.tasktracker.map.tasks.maximum 这个是一个task tracker中可同时执行的map的最大个数,默认值为2。也可以手动设置,增加Reduce个数。当不需要规约处理时,可以设置Reduce数量为0。
相关文章推荐
- hadoop中map和reduce的数量设置问题
- hadoop中map和reduce的数量设置问题
- hadoop中map和reduce的数量设置问题
- hadoop中map和reduce的数量设置问题
- hadoop中map和reduce的数量设置问题
- hadoop中map和reduce的数量设置问题
- hadoop中map和reduce的数量设置问题
- hadoop中map和reduce的数量设置问题
- hadoop中map和reduce的数量设置问题
- hadoop中map和reduce的数量设置问题
- 【转】hadoop中map和reduce的数量设置问题
- Hadoop 中关于 map,reduce 数量设置
- hadoop中map和reduce的数量设置
- hadoop中map和reduce的数量设置
- hadoop中map和reduce的数量设置
- hadoop中map和reduce的数量设置问…
- hadoop中map和reduce的数量设置
- hadoop中map和reduce的数量设置
- hadoop中map和reduce的数量设置
- hadoop中map和reduce的数量设置