Hadoop Pig、Hive 自定义输入输出分隔符
2013-12-07 12:06
176 查看
PIG中输入输出分隔符默认是制表符\t,而到了hive中,默认变成了八进制的\001,
也就是ASCII: ctrl - A
Oct Dec Hex ASCII_Char
001 1 01 SOH (start of heading)
官方的解释说是尽量不和文中的字符重复,因此选用了 crtrl - A,单个的字符可以通过
row format delimited fields terminated by '#'; 指定,PIG的单个分隔符的也可以通过 PigStorage指定,
但是多个字符做分隔符呢?PIG是直接报错,而HIVE只认第一个字符,而无视后面的多个字符。
解决办法:
PIG可以自定义加载函数(load function):继承LoadFunc,重写几个方法就ok了,
详见:http://my.oschina.net/leejun2005/blog/83825
而在hive中,自定义多分隔符(Multi-character delimiter strings),有2种方法可以实现:
1、利用RegexSe:
RegexSerDe是hive自带的一种序列化/反序列化的方式,主要用来处理正则表达式。
RegexSerDe主要下面三个参数:
input.regex
output.format.string
input.regex.case.insensitive
下面给出一个完整的范例:
REF:
http://www.oratea.net/?p=652
http://grokbase.com/t/hive/user/115sw9ant2/hive-create-table
2、重写相应的 InputFormat和OutputFormat方法:
详见:
hive处理日志,自定义inputformat
http://running.iteye.com/blog/907806
http://superlxw1234.iteye.com/blog/1744970
原理很简单:hive 的内部分隔符是“ \001 ”,只要把分隔符替换成“\001 ”即可。
3、顺便提下如何定制hive中NULL的输出,默认在存储时被转义输出为\N,
如果我们需要修改成自定义的,例如为空,同样我们也要利用正则序列化:
PS:
其实话说回来这个功能很简单,但不知为何作者没有直接支持,或许未来的版本会支持的。
也就是ASCII: ctrl - A
Oct Dec Hex ASCII_Char
001 1 01 SOH (start of heading)
官方的解释说是尽量不和文中的字符重复,因此选用了 crtrl - A,单个的字符可以通过
row format delimited fields terminated by '#'; 指定,PIG的单个分隔符的也可以通过 PigStorage指定,
但是多个字符做分隔符呢?PIG是直接报错,而HIVE只认第一个字符,而无视后面的多个字符。
解决办法:
PIG可以自定义加载函数(load function):继承LoadFunc,重写几个方法就ok了,
详见:http://my.oschina.net/leejun2005/blog/83825
而在hive中,自定义多分隔符(Multi-character delimiter strings),有2种方法可以实现:
1、利用RegexSe:
RegexSerDe是hive自带的一种序列化/反序列化的方式,主要用来处理正则表达式。
RegexSerDe主要下面三个参数:
input.regex
output.format.string
input.regex.case.insensitive
下面给出一个完整的范例:
01 | add jar /home/june/hadoop/hive-0.8.1-bin/lib/hive_contrib.jar; |
02 | CREATE TABLE b( |
03 | c0 string, |
04 | c1 string, |
05 | c2 string) |
06 | ROW FORMAT |
07 | SERDE 'org.apache.hadoop.hive.contrib.serde2.RegexSerDe' |
08 | WITH SERDEPROPERTIES |
09 | ( 'input.regex' = '([^,]*),,,,([^,]*),,,,([^,]*)' , |
10 | 'output.format.string' = '%1$s %2$s %3$s' ) |
11 | STORED AS TEXTFILE; |
12 |
13 | cat b.txt |
14 | 1,,,,2,,,,3 |
15 | a,,,,b,,,,c |
16 | 9,,,,5,,,,7 |
17 | load data local inpath 'b.txt' overwrite into table b; |
18 | select * from b |
http://www.oratea.net/?p=652
http://grokbase.com/t/hive/user/115sw9ant2/hive-create-table
2、重写相应的 InputFormat和OutputFormat方法:
详见:
hive处理日志,自定义inputformat
http://running.iteye.com/blog/907806
http://superlxw1234.iteye.com/blog/1744970
原理很简单:hive 的内部分隔符是“ \001 ”,只要把分隔符替换成“\001 ”即可。
3、顺便提下如何定制hive中NULL的输出,默认在存储时被转义输出为\N,
如果我们需要修改成自定义的,例如为空,同样我们也要利用正则序列化:
01 | hive> CREATE TABLE sunwg02 (id int , name STRING) |
02 | ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe' |
03 | WITH SERDEPROPERTIES ( |
04 | 'field.delim' = '\t' , |
05 | 'escape.delim' = '\\' , |
06 | 'serialization.null.format' =' |
07 | ) AS TEXTFILE; |
08 | OK |
09 | Time taken: 0.046 seconds |
10 |
11 | hive> insert overwrite table sunwg02 select * from sunwg00; |
12 | Loading to table sunwg02 |
13 | 2 Rows loaded to sunwg02 |
14 | OK |
15 | Time taken: 18.756 seconds |
16 |
17 | 查看sunwg02在hdfs的文件 |
18 | [hjl@sunwg src]$ hadoop fs -cat /hjl/sunwg02/attempt_201105020924_0013_m_000000_0 |
19 | mary |
20 | 101 tom |
21 |
22 | NULL 值没有被转写成’\N’ |
其实话说回来这个功能很简单,但不知为何作者没有直接支持,或许未来的版本会支持的。
相关文章推荐
- Hadoop Pig、Hive 自定义输入输出分隔符
- Hadoop生态中:Hive、Pig、HBase 关系与区别
- Hadoop生态上几个技术的关系与区别:hive、pig、hbase 关系与区别
- Hadoop生态上几个技术的关系与区别:hive、pig、hbase 关系与区别
- 急性子的开源大数据,第 1 部分: Hadoop 教程:Hello World 与 Java、Pig、Hive、Flume、Fuse、Oozie,以及 Sqoop 与 Informix、DB2 和
- 基于hive的transform实现自定义分隔符数据导出
- hadoop-2.5.0,hbase,hive,pig,sqoop,zookeeper 集群安装
- [Hadoop]Pig与Hive的区别
- 016-Hadoop Hive sql语法详解6-job输入输出优化、数据剪裁、减少job数、动态分区
- Hive表中四种不同数据导出方式以及如何自定义导出列分隔符
- Hadoop生态上几个技术的关系与区别:hive、pig、hbase 关系与区别
- Hadoop 高级程序设计(二)---自定义输入输出格式
- Centos搭建mysql/Hadoop/Hive/Hbase/Sqoop/Pig
- hadoop之pig自定义函数UDF(五)
- Hadoop生态上几个技术的关系与区别:hive、pig、hbase 关系与区别
- Hadoop生态上几个技术的关系与区别:hive、pig、hbase 关系与区别
- Hadoop生态上几个技术的关系与区别:hive、pig、hbase 关系与区别
- Hadoop生态上几个技术的关系与区别:hive、pig、hbase 关系与区别
- 【转自oschina网站】Hadoop、Pig、Hive、Storm、NOSQL 学习资源收集