您的位置:首页 > 运维架构

hadoop 一些使用上的记录(ATCO)

2013-07-05 15:11 113 查看
1、启用多线程运行map

//设置MAP处理类为MutithreadedMapper

job.setMapperClass(MutithreadedMapper.class);

//设置MutithreadedMapper的线程数(建议使用配置)

MultithreadedMapper.setNumberOfThreads(job,10)

2、按行划分MAP,即实现输入文件按行划分,每N行一个MAP

//设置JOB的格式化输入类为NLineInputFormat

job.setInputFormatClass(NLineInputFormat.class)

//设置每N行为一个MAP,当然,这个数据最好使用计算的方法去得出,因为不然输入一个大文件会导致MAP很大,会导致占用整个集群资源,如限制最多只能占用N个MAP,当计算出来的MAP大于最大能占用MAP时,以最大可占用MAP数平分其行数

job.getConfiguration().set(NLineInputFormat.LINES_PER_MAP,"500");

3、将输出忽略KEY值(即输出时不带有KEY值,直接为每行一个VALUE)

这样的输出其实最简单的就是在输出时KEY值使用NullWritable.get()作类型即可,如:

context.write(NullWritable.get(),new Text("aaa"));

也可以重写格式化输出类。

4、输出时按情况使用不同的文件名输出结果

这种情况也可以重写格式化输出类实现。

这里说一种简单的方法:

1)、先在提交JOB之前,设置多行输出别名,设置其别名,输出类型,Key类型,value类型

MultipleOutputs.addNameOutput(job,"corpInfo",TextOutputFormat.class,Text.class,Text.class);

MultipleOutputs.setCounterEnabled(job,true);//重设别名输出后,其计算器要设置才能显示输出数

注:设置的别名只是标识输出格式,key格式,value格式的一个类变量。即表示,如果你要输出的文件有多种不同的格式标识,则设置多个别名以标示输出格式。

2)、在map中声明输出

private MultipleOutputs outs;

3)在map的setup方法中实例化输出类:

@Override

protected void setup(Context context){

outs=new MultipleOutputs(context);

}

4)在map的cleanup方法中关闭输出类:

public void cleanup(Context context) throws IOException,InterruptedException{

super.cleanup(Context);

outs.close;

}

5)在map中使用

outs.write("corpInfo",NullWritable.get(),new Text("aaa"),"result");

参数为:输入别名,KEY,VALUE,文件名

当要输出的数据其输出格式都一致时,可以用相同的别名进行输出成不同的文件名,文件名一般会加一些后缀,一般为机器节点标识值,如result0001

注:上面是MAP的输出,reduce也是一样的:声明输出类,实例化,使用

5、关于输入输出编码

hadoop源代码中涉及编码问题时都是写死的utf-8,但是不少情况下,也会遇到输入文件和输出文件需要GBK编码的情况。

输入文件为GBK,则只需在mapper或reducer程序中读取Text时,使用new String(text.getBytes(), 0, text.getLength(), encoding)进行一下转码即可正常读出。

输出文件为GBK,则重写TextOutputFormat类,如public class GBKFileOutputFormat<K, V> extends FileOutputFormat<K,V>,

把TextOutputFormat的源码拷过来,然后把里面写死的utf-8编码改成GBK编码。最后,在run程序中,设置job.setOutputFormatClass(GBKFileOutputFormat.class);
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: