Hadoop & Hadoop Streaming 自定义输出格式
2013-09-23 22:30
357 查看
在用Hadoop处理大量的日志文件的时候,有时候会将错误的或者不符合要求的日志输出到另外一个目录,以备后来进行查验,这里给出个简单的例子,并简单说明下如何在Hadoop Streaming中使用这种方法将错误格式的日志输出到自定义的路径。
例子中类MultiFilesOutput继承自MultipleTextOutputFormat<Text, Text>,可以自己定义不同的keyType,然后输出到不同的目录下。
在Hadoop Streaming,使用扩展的jar文件格式如下:
其中CustomOutputFormats.jar 为生成的jar文件名称,MultiFormats.MultiFilesOutput对应于package name和类名。
例子中类MultiFilesOutput继承自MultipleTextOutputFormat<Text, Text>,可以自己定义不同的keyType,然后输出到不同的目录下。
package MultiFormats; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapred.lib.MultipleTextOutputFormat; /** * * @author xyl * */ public class MultiFilesOutput extends MultipleTextOutputFormat<Text, Text> { /** * Use the key as part of the path for the final output results * now we just define three types * err_log: the log format we can't parse * err_oth: the other log format * pvnormal: the right log format for output pv result * uvnormal: the right log format for output uvresult */ @Override protected String generateFileNameForKeyValue(Text key, Text value, String leaf) { String keyType = new String(key.toString()); if(keyType.equals("err_log")) { return new Path("err_log",leaf).toString(); } if(keyType.equals("err_oth")) { return new Path("err_oth",leaf).toString(); } /* * return new Path("normal",leaf).toString(); */ if(keyType.equals("pvnormal")) { return new Path("pvnormal",leaf).toString(); } return new Path("uvnormal", leaf).toString(); } /** * When actually writing the data, discard the key since it is already in * the file path. */ @Override protected Text generateActualKey(Text key, Text value) { return null; } } </text></text>
在Hadoop Streaming,使用扩展的jar文件格式如下:
INPUT=/user/flume/${PATH} OUTPUT=/user/dplog/errlog/${DATE} #JOBNAME: displayed mapreduce jobname, better add job owner name JOBNAME="${DATE}-pvTest""(xyl)" ###################################################################### # Check if output directory aready exists # -------------------------------------------------------------------- #if $(/opt/hadoop/bin/hadoop fs -test -d ${OUTPUT}) #then # echo "Output Directory" $OUTPUT "already exists." # Other action code can be added at here # exit 100 #else # echo "Output Directory will be created!" #fi /opt/hadoop/bin/hadoop fs -rmr ${OUTPUT} ###################################################################### # Main hadoop streaming process # -------------------------------------------------------------------- /opt/hadoop/bin/hadoop jar ${STREAMING_JAR} \ -libjars /opt/home/hadoop/xyl/Jars/CustomOutputFormats.jar \ -Dmapred.job.name=${JOBNAME} \ -Dmapred.reduce.tasks=1 \ -input ${INPUT} \ -output ${OUTPUT} \ -mapper mapper.py \ -reducer reducer.py \ -file /opt/home/hadoop/xyl/mappers/mapper.py \ -file /opt/home/hadoop/xyl/reducers/reducer.py \ -outputformat MultiFormats.MultiFilesOutput \ ;
其中CustomOutputFormats.jar 为生成的jar文件名称,MultiFormats.MultiFilesOutput对应于package name和类名。
相关文章推荐
- hadoop自定义文件输出格式
- hadoop---自定义输出文件格式以及输出到不同目录
- Hadoop(十):简单了解Hadoop数据类型,输入输出格式及用户如何自定义。
- 了解Hadoop数据类型,输入输出格式及用户如何自定义。
- 【转】Hadoop自定义输入与输出格式
- hadoop自定义输出格式
- Hadoop MapReduce编程 API入门系列之自定义多种输入格式数据类型和排序多种输出格式(十一)
- hadoop自定义输出文件名
- ExtJS Tips->Grid column的自定义格式
- 在自己写的formatName基础上,写个,将时间转化为自定义的输出字符串格式信息
- go实用小技能(一)-自定义log输出格式
- Hadoop Streaming Command Details and Q&A
- GDB技巧:自定义.gdbinit和标准输出出错重定向 & 查看STL容器的自定义gdb命令集合
- hadoop 之 输出格式
- 在Hadoop的streaming中使用自定义的inputformat和outputformat
- 自定义Log4cpp的日志输出格式
- Hadoop Streaming 实战: 多路输出
- 让Git的输出更友好: 多种颜色和自定义log格式
- Hadoop:输入,输出,key,value格式