(转)hive sql 学习笔记(1)
2012-03-13 11:12
113 查看
一、创建表
在官方的wiki里,example是这样的:
Sql代码
CREATE[EXTERNAL]TABLE[IFNOTEXISTS]table_name
[(col_namedata_type[COMMENTcol_comment],...)]
[COMMENTtable_comment]
[PARTITIONEDBY(col_namedata_type
[COMMENTcol_comment],...)]
[CLUSTEREDBY(col_name,col_name,...)
[SORTEDBY(col_name[ASC|DESC],...)]
INTOnum_bucketsBUCKETS]
[ROWFORMATrow_format]
[STOREDASfile_format]
[LOCATIONhdfs_path]
ViewCode
[ROWFORMATDELIMITED]关键字,是用来设置创建的表在加载数据的时候,支持的列分隔符;
[STOREDASfile_format]关键字是用来设置加载数据的数据类型。Hive本身支持的文件格式只有:TextFile,SequenceFile。如果文件数据是纯文本,可以使用[STOREDASTEXTFILE]。如果数据需要压缩,使用[STOREDASSEQUENCE]。通常情况,只要不需要保存序列化的对象,我们默认采用[STOREDASTEXTFILE]。
那么我们创建一张普通的hive表,hivesql就如下:
Sql代码
CREATETABLEtest_1(idINT,nameSTRING,citySTRING)SORTEDBYTEXTFILEROWFORMATDELIMITEDFIELDSTERMINATEDBY‘\t’;
其中,hive支持的字段类型,并不多,可以简单的理解为数字类型和字符串类型,详细列表如下:
Sql代码
TINYINT
SMALLINT
INT
BIGINT
BOOLEAN
FLOAT
DOUBLE
STRING
注意partitionedby的位置:
createtablewebdata2(vstartstring,vendstring,hdidint,useridint,sidint,refsidint,activeint,durationint,mdomainstring,sdomainstring,refsdomainstring,ieidint,refieidstring,urlstring,totaltimeint,param2int,param4string,param4codestring)partitionedby(pidint,daytimestring)rowformatdelimitedfieldsterminatedby'\t'storedasSEQUENCEFILE;
Hive的表,与普通关系型数据库,如mysql在表上有很大的区别,所有hive的表都是一个文件,它是基于Hadoop的文件系统来做的。
hive总体来说可以总结为三种不同类型的表。
1.普通表
普通表的创建,如上所说,不讲了。其中,一个表,就对应一个表名对应的文件。
2.外部表
EXTERNAL关键字可以让用户创建一个外部表,在建表的同时指定一个指向实际数据的路径(LOCATION),Hive创建内部表时,会将数据移动到数据仓库指向的路径;若创建外部表,仅记录数据所在的路径,不对数据的位置做任何改变。在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据。具体sql如下:
Sql代码
CREATEEXTERNALTABLEtest_1(idINT,nameSTRING,citySTRING)SORTEDBYTEXTFILEROWFORMATDELIMITEDFIELDSTERMINATEDBY'\t’LOCATION‘hdfs://http://www.cnblogs.com/..’
3.分区表
有分区的表可以在创建的时候使用PARTITIONEDBY语句。一个表可以拥有一个或者多个分区,每一个分区单独存在一个目录下。而且,表和分区都可以对某个列进行CLUSTEREDBY操作,将若干个列放入一个桶(bucket)中。也可以利用SORTBY对数据进行排序。这样可以为特定应用提高性能。具体SQL如下:
Sql代码
CREATETABLEtest_1(idINT,nameSTRING,citySTRING)PARTITIONEDBY(ptSTRING)SORTEDBYTEXTFILEROWFORMATDELIMITEDFIELDSTERMINATEDBY‘\t’
Hive的排序,因为底层实现的关系,比较不同于普通排序,这里先不讲。
桶的概念,主要是为性能考虑,可以理解为对分区内列,进行再次划分,提高性能。在底层,一个桶其实是一个文件。如果桶划分过多,会导致文件数量暴增,一旦达到系统文件数量的上限,就杯具了。哪种是最优数量,这个哥也不知道。
分区表实际是一个文件夹,表名即文件夹名。每个分区,实际是表名这个文件夹下面的不同文件。分区可以根据时间、地点等等进行划分。比如,每天一个分区,等于每天存每天的数据;或者每个城市,存放每个城市的数据。每次查询数据的时候,只要写下类似wherept=2010_08_23这样的条件即可查询指定时间得数据。
总体而言,普通表,类似mysql的表结构,外部表的意义更多是指数据的路径映射。分区表,是最难以理解,也是最hive最大的优势。之后会专门针对分区表进行讲解。
二、加载数据
Hive不支持一条一条的用insert语句进行插入操作,也不支持update的操作。数据是以load的方式,加载到建立好的表中。数据一旦导入,则不可修改。要么drop掉整个表,要么建立新的表,导入新的数据。
官方指导为:
Sql代码
LOADDATA[LOCAL]INPATH'filepath'[OVERWRITE]INTOTABLEtablename[PARTITION(partcol1=val1,partcol2=val2...)]
Hive在数据load这块,大方向分为两种方式,load文件或者查询一张表,或者将某张表里的额查询结果插入指定表。
如果划分更细一点个人归纳总结为4种不同的方式的load:
1.Loaddata到指定的表直接将file,加载到指定的表,其中,表可以是普通表或者分区表。具体sql如下:
Sql代码
LOADDATALOCALINPATH'/home/admin/test/test.txt'OVERWRITEINTOTABLEtest_1
关键字[OVERWRITE]意思是是覆盖原表里的数据,不写则不会覆盖。
关键字[LOCAL]是指你加载文件的来源为本地文件,不写则为hdfs的文件。
其中
‘/home/admin/test/test.txt’为绝对路径
2.load到指定表的分区
直接将file,加载到指定表的指定分区。表本身必须是分区表,如果是普通表,导入会成功,但是数据实际不会被导入。具体sql如下:
Sql代码
LOADDATALOCALINPATH'/home/admin/test/test.txt'OVERWRITEINTOTABLEtest_1PARTITION(pt=’xxxx)
load数据,hive支持文件夹的方式,将文件夹内的所有文件,都load到指定表中。Hdfs会将文件系统内的某文件夹路径内的文件,分散到不同的实际物理地址中。这样,在数据量很大的时候,hive支持读取多个文件载入,而不需要限定在唯一的文件中。
3.insert+select
这个是完全不同于文件操作的数据导入方式。官方指导为:
Sql代码
Standardsyntax:
INSERTOVERWRITETABLEtablename1[PARTITION(partcol1=val1,partcol2=val2...)]select_statement1FROMfrom_statement
Hiveextension(multipleinserts):
FROMfrom_statement
INSERTOVERWRITETABLEtablename1[PARTITION(partcol1=val1,partcol2=val2...)]select_statement1
[INSERTOVERWRITETABLEtablename2[PARTITION...]select_statement2]...
Hiveextension(dynamicpartitioninserts):
INSERTOVERWRITETABLEtablenamePARTITION(partcol1[=val1],partcol2[=val2]...)select_statementFROMfrom_statement
这个的用法,和上面两种直接操作file的方式,截然不同。从sql语句本身理解,就是把查询到的数据,直接导入另外一张表。这个暂时不仔细分析,之后查询章节,再细讲。
4.alter表,对分区操作
在对表结构进行修改的时候,我们可以增加一个新的分区,在增加新分区的同时,将数据直接load到新的分区当中。
Sql代码
ALTERTABLEtable_nameADD
partition_spec[LOCATION'location1']
partition_spec[LOCATION'location2']...
在官方的wiki里,example是这样的:
Sql代码
CREATE[EXTERNAL]TABLE[IFNOTEXISTS]table_name
[(col_namedata_type[COMMENTcol_comment],...)]
[COMMENTtable_comment]
[PARTITIONEDBY(col_namedata_type
[COMMENTcol_comment],...)]
[CLUSTEREDBY(col_name,col_name,...)
[SORTEDBY(col_name[ASC|DESC],...)]
INTOnum_bucketsBUCKETS]
[ROWFORMATrow_format]
[STOREDASfile_format]
[LOCATIONhdfs_path]
ViewCode
row_format :DELIMITED[FIELDSTERMINATEDBYchar][COLLECTIONITEMSTERMINATEDBYchar] [MAPKEYSTERMINATEDBYchar] |SERDEserde_name[WITHSERDEPROPERTIESproperty_name=property_value, property_name=property_value,...] file_format: :SEQUENCEFILE |TEXTFILE |INPUTFORMATinput_format_classnameOUTPUTFORMAToutput_format_classname
[ROWFORMATDELIMITED]关键字,是用来设置创建的表在加载数据的时候,支持的列分隔符;
[STOREDASfile_format]关键字是用来设置加载数据的数据类型。Hive本身支持的文件格式只有:TextFile,SequenceFile。如果文件数据是纯文本,可以使用[STOREDASTEXTFILE]。如果数据需要压缩,使用[STOREDASSEQUENCE]。通常情况,只要不需要保存序列化的对象,我们默认采用[STOREDASTEXTFILE]。
那么我们创建一张普通的hive表,hivesql就如下:
Sql代码
CREATETABLEtest_1(idINT,nameSTRING,citySTRING)SORTEDBYTEXTFILEROWFORMATDELIMITEDFIELDSTERMINATEDBY‘\t’;
其中,hive支持的字段类型,并不多,可以简单的理解为数字类型和字符串类型,详细列表如下:
Sql代码
TINYINT
SMALLINT
INT
BIGINT
BOOLEAN
FLOAT
DOUBLE
STRING
注意partitionedby的位置:
createtablewebdata2(vstartstring,vendstring,hdidint,useridint,sidint,refsidint,activeint,durationint,mdomainstring,sdomainstring,refsdomainstring,ieidint,refieidstring,urlstring,totaltimeint,param2int,param4string,param4codestring)partitionedby(pidint,daytimestring)rowformatdelimitedfieldsterminatedby'\t'storedasSEQUENCEFILE;
Hive的表,与普通关系型数据库,如mysql在表上有很大的区别,所有hive的表都是一个文件,它是基于Hadoop的文件系统来做的。
hive总体来说可以总结为三种不同类型的表。
1.普通表
普通表的创建,如上所说,不讲了。其中,一个表,就对应一个表名对应的文件。
2.外部表
EXTERNAL关键字可以让用户创建一个外部表,在建表的同时指定一个指向实际数据的路径(LOCATION),Hive创建内部表时,会将数据移动到数据仓库指向的路径;若创建外部表,仅记录数据所在的路径,不对数据的位置做任何改变。在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据。具体sql如下:
Sql代码
CREATEEXTERNALTABLEtest_1(idINT,nameSTRING,citySTRING)SORTEDBYTEXTFILEROWFORMATDELIMITEDFIELDSTERMINATEDBY'\t’LOCATION‘hdfs://http://www.cnblogs.com/..’
3.分区表
有分区的表可以在创建的时候使用PARTITIONEDBY语句。一个表可以拥有一个或者多个分区,每一个分区单独存在一个目录下。而且,表和分区都可以对某个列进行CLUSTEREDBY操作,将若干个列放入一个桶(bucket)中。也可以利用SORTBY对数据进行排序。这样可以为特定应用提高性能。具体SQL如下:
Sql代码
CREATETABLEtest_1(idINT,nameSTRING,citySTRING)PARTITIONEDBY(ptSTRING)SORTEDBYTEXTFILEROWFORMATDELIMITEDFIELDSTERMINATEDBY‘\t’
Hive的排序,因为底层实现的关系,比较不同于普通排序,这里先不讲。
桶的概念,主要是为性能考虑,可以理解为对分区内列,进行再次划分,提高性能。在底层,一个桶其实是一个文件。如果桶划分过多,会导致文件数量暴增,一旦达到系统文件数量的上限,就杯具了。哪种是最优数量,这个哥也不知道。
分区表实际是一个文件夹,表名即文件夹名。每个分区,实际是表名这个文件夹下面的不同文件。分区可以根据时间、地点等等进行划分。比如,每天一个分区,等于每天存每天的数据;或者每个城市,存放每个城市的数据。每次查询数据的时候,只要写下类似wherept=2010_08_23这样的条件即可查询指定时间得数据。
总体而言,普通表,类似mysql的表结构,外部表的意义更多是指数据的路径映射。分区表,是最难以理解,也是最hive最大的优势。之后会专门针对分区表进行讲解。
二、加载数据
Hive不支持一条一条的用insert语句进行插入操作,也不支持update的操作。数据是以load的方式,加载到建立好的表中。数据一旦导入,则不可修改。要么drop掉整个表,要么建立新的表,导入新的数据。
官方指导为:
Sql代码
LOADDATA[LOCAL]INPATH'filepath'[OVERWRITE]INTOTABLEtablename[PARTITION(partcol1=val1,partcol2=val2...)]
Hive在数据load这块,大方向分为两种方式,load文件或者查询一张表,或者将某张表里的额查询结果插入指定表。
如果划分更细一点个人归纳总结为4种不同的方式的load:
1.Loaddata到指定的表直接将file,加载到指定的表,其中,表可以是普通表或者分区表。具体sql如下:
Sql代码
LOADDATALOCALINPATH'/home/admin/test/test.txt'OVERWRITEINTOTABLEtest_1
2.load到指定表的分区
直接将file,加载到指定表的指定分区。表本身必须是分区表,如果是普通表,导入会成功,但是数据实际不会被导入。具体sql如下:
Sql代码
LOADDATALOCALINPATH'/home/admin/test/test.txt'OVERWRITEINTOTABLEtest_1PARTITION(pt=’xxxx)
3.insert+select
这个是完全不同于文件操作的数据导入方式。官方指导为:
Sql代码
Standardsyntax:
INSERTOVERWRITETABLEtablename1[PARTITION(partcol1=val1,partcol2=val2...)]select_statement1FROMfrom_statement
Hiveextension(multipleinserts):
FROMfrom_statement
INSERTOVERWRITETABLEtablename1[PARTITION(partcol1=val1,partcol2=val2...)]select_statement1
[INSERTOVERWRITETABLEtablename2[PARTITION...]select_statement2]...
Hiveextension(dynamicpartitioninserts):
INSERTOVERWRITETABLEtablenamePARTITION(partcol1[=val1],partcol2[=val2]...)select_statementFROMfrom_statement
4.alter表,对分区操作
在对表结构进行修改的时候,我们可以增加一个新的分区,在增加新分区的同时,将数据直接load到新的分区当中。
Sql代码
ALTERTABLEtable_nameADD
partition_spec[LOCATION'location1']
partition_spec[LOCATION'location2']...
相关文章推荐
- hive sql 学习笔记(1)
- Hive中SQL查询转MapReduce作业过程------学习笔记
- (转)hive sql 学习笔记(1)
- (转)hive sql 学习笔记
- hadoop学习笔记之HiveSQL 数据查询
- 第69课:SparkSQL通过Hive数据源实战学习笔记
- sql 必知必会学习笔记(二)
- MySQL学习笔记_8_SQL语言基础复习
- Oracle PL/SQL学习笔记
- SQL 学习笔记<三> SELECT之连接查询
- 大数据技术学习笔记之hive框架基础3-sqoop工具的使用及具体业务分析
- Hadoop学习笔记(10)-简述分布式数据仓库Hive原理
- 韩顺平servlet学习笔记03-sql制作大量的数据
- entityframework学习笔记--009-使用原生sql语句操作数据
- oracle9i学习笔记之十三 SQL练习
- 学习笔记_oracle——游标与动态SQL
- hive 学习笔记
- T-SQL 2008学习笔记(1)
- hive学习笔记
- SQL漏洞学习笔记