Hadoop实践(三)---MapReduce编程 小技巧
2016-09-24 19:57
323 查看
影响大多数MapReduce程序效率的主要瓶颈是磁盘和网络I/O。
使用Mapper去执行部分计算,可以有效减少Mapper和Reducer之间的I/O开销。相较于将全部输入传输给Reducer,并执行计算任务,这样的开销是非常小的,在MapReduce开发中,需要考虑这些问题,以降低开销,提高效率。
当Mapper和Reducer的输出类型相同的时候,只需要设置这2个就可以了:
当Mapper和Reducer输出类型不同时,需要分别设置:
使用-libjars
使用-D
在本例中,会返回包含输入输出路径的数组
Tool是任何Map-Reduce工具/应用程序的标准。 工具/应用程序应该将标准命令行选项的处理委托给ToolRunner.run(Tool,String []),并且仅处理其自定义参数。
以下是典型工具的实现方式:
使用Mapper去执行部分计算,可以有效减少Mapper和Reducer之间的I/O开销。相较于将全部输入传输给Reducer,并执行计算任务,这样的开销是非常小的,在MapReduce开发中,需要考虑这些问题,以降低开销,提高效率。
1、在MapReduce中输出时,如何不输出Key值?
NullWritable.get()方法
当Mapper和Reducer的输出类型相同的时候,只需要设置这2个就可以了:
job.setOutputKeyClass(NullWritable.class); job.setOutputValueClass(Text.class);
当Mapper和Reducer输出类型不同时,需要分别设置:
job.setMapOutputKeyClass(Text.class); job.setMapOutputValueClass(IntWritable.class); job.setOutputKeyClass(NullWritable.class); job.setOutputValueClass(Text.class);
2、GenericOptionsParser的用法
使用GenericOptionsParser将命令参数传递给作业:使用-libjars
<comma separated jar paths(逗号分隔的jar路径)>传递第三方库
使用-D
<name> = <value>传递自定义的命令参数
new GenericOptionsParser(getConf(),args).getRemainingArgs();
在本例中,会返回包含输入输出路径的数组
3、实现Tool接口
Tool接口支持处理通用命令行选项Tool是任何Map-Reduce工具/应用程序的标准。 工具/应用程序应该将标准命令行选项的处理委托给ToolRunner.run(Tool,String []),并且仅处理其自定义参数。
以下是典型工具的实现方式:
public class MyApp extends Configured implements Tool { public int run(String[] args) throws Exception { // Configuration processed by ToolRunner Configuration conf = getConf(); // Create a JobConf using the processed conf JobConf job = new JobConf(conf, MyApp.class); // Process custom command-line options Path in = new Path(args[1]); Path out = new Path(args[2]); // Specify various job-specific parameters job.setJobName("my-app"); job.setInputPath(in); job.setOutputPath(out); job.setMapperClass(MyMapper.class); job.setReducerClass(MyReducer.class); // Submit the job, then poll for progress until the job is complete JobClient.runJob(job); return 0; } public static void main(String[] args) throws Exception { // Let ToolRunner handle generic command-line options int res = ToolRunner.run(new Configuration(), new MyApp(), args); System.exit(res); } }
相关文章推荐
- Hadoop实践(三)---MapReduce相关编程笔记
- 【Hadoop系列第五章】MapReduce2.0编程实践(上)理论
- Hadoop实践(三)---MapReduce框架编程笔记
- [Hadoop编程实践]一个实用、清晰的MapReduce程序
- 【Hadoop系列第五章】MapReduce2.0编程实践(下)实践
- hadoop中使用MapReduce编程实例
- hadoop中使用MapReduce编程实例(转)
- Hadoop MapReduce开发最佳实践(上篇)
- 关于hadoop的mapreduce编程中自定义key,value建立的类实现writable接口
- hadoop MapReduce开发调试实践得出的2点体会
- hadoop mapreduce编程 内存溢出的解决办法
- Hadoop MapReduce开发最佳实践(上篇)
- Hadoop编程之MapReduce操作Mysql数据库
- Hadoop实战-中高级部分 之 Hadoop MapReduce高级编程
- hadoop中使用MapReduce编程实例
- Hadoop编程之MapReduce操作Mysql数据库
- [Hadoop编程实践]解决MultipleInputs时调用getInputSplit抛出TaggedInputSplit的转换错误
- 用 Hadoop 的 MapReduce 编程实现 K-Means 算法
- Hadoop实战-中高级部分 之 Hadoop MapReduce高级编程