mapReduce大量小文件的优化策略
2017-02-09 12:00
155 查看
默认情况下,TextInputFormat对任务的切片机制是按文件规划切片,不管文件多小都会上一个单独的切片,都会交给一个maptask,这样如果有大量的小文件,就会产生大量的maptask,处理效率及其地下。
策略
最好的办法:在数据处理系统的最前端(预处理/采集),就将小文件合并成大文件再上传到HDFS做后续分析。
如果已经上大量小文件再HDFS中了可以使用另一种inputFormat来做切片(CombineFileInputFormat),他的切片逻辑跟FileInputFormat不同:它可以将多个小文件从逻辑上规划到一个切片中, 这样多个小文件就可以交给一个maptask。
相关文章推荐
- mapreduce关于大量小文件的优化策略
- 大量小文件的优化策略
- hadoop大量小文件的优化策略
- 同时对多个文件进行大量写操作对性能优化
- 同时对多个文件进行大量写操作对性能优化
- 【Hadoop】MapReduce笔记(四):MapReduce优化策略总结
- 基于Hadoop的云盘系统上传和下载效率优化及处理大量小文件的解决方法
- 自定义分片策略解决大量小文件问题
- 自定义分片策略解决大量小文件问题
- 内存管理:频繁申请大量(同等大小)小对象的优化内存策略
- 同时对多个文件进行大量写操作对性能优化
- Hadoop案例之自定义分片策略解决大量小文件问题
- 基于Hadoop的云盘系统上传和下载效率优化及处理大量小文件的解决方法
- 从Hadoop配置文件深刻理解MapReduce优化
- FastDFS文件名策略及对小文件的优化
- 基于Hadoop的云盘系统上传和下载效率优化及处理大量小文件的解决方法
- 客户端配置文件优化策略
- FastDFS 小文件优化策略
- 大量小文件的存储场景,有什么优化办法
- FastDFS文件名策略及对小文件的优化