sqoop数据抽取 分区表的示例
2018-01-10 10:26
337 查看
--分区表
#!/bin/bash
#mysql表名
tableName=t_sys_file
#字段名
columns=id,biz_field_name,biz_id,biz_table_name,bucket_name,content_type,created_date,disp_order_no,download_times,file_key,file_size,filename
#hive-database
hive_datebase=ods
#hive-table
hive_table=s01_t_sys_file
#partition
hive_partition_key=etl_time
#etl_time=`date "+%Y-%m-%d %H:%M:%S"`
etl_time=`date "+%Y%m%d"`
#m个数
parallel_count=16
for i in {1..1}
do
#redo rmr hdfs
hadoop fs -rmr /user/hdfs/${hive_table}
hadoop fs -rmr /user/hdfs/${tableName}
cfg=`grep -v '^#' /home/gamaxwin/mo9_azkaban/database_set.cfg | grep -i "jianghujiuji_riskdb"`
uid=`echo $cfg|awk -F, '{print $2}'`
url=`echo $cfg|awk -F, '{print $3}'`
pwd=`echo $cfg|awk -F, '{print $4}'`
jceks_path=`echo $cfg|awk -F, '{print $5}'`
sqoop import
-Dhadoop.security.credential.provider.path=${jceks_path}
--connect ${url}
--username ${uid}
--password-alias ${pwd}
--hive-import
--hive-overwrite
--hive-database ${hive_datebase}
--hive-table ${hive_table}
--fields-terminated-by 'x01'
--lines-terminated-by ' '
--null-string '\N'
--null-non-string '\N'
--hive-delims-replacement ' '
--compress
--compression-codec org.apache.hadoop.io.compress.SnappyCodec
--hive-partition-key $hive_partition_key
--hive-partition-value ${etl_time}
--target-dir /user/hdfs/${hive_table}
--query "select ${columns} from ${tableName} where $CONDITIONS"
--split-by id
-m ${parallel_count}
done
#!/bin/bash
#mysql表名
tableName=t_sys_file
#字段名
columns=id,biz_field_name,biz_id,biz_table_name,bucket_name,content_type,created_date,disp_order_no,download_times,file_key,file_size,filename
#hive-database
hive_datebase=ods
#hive-table
hive_table=s01_t_sys_file
#partition
hive_partition_key=etl_time
#etl_time=`date "+%Y-%m-%d %H:%M:%S"`
etl_time=`date "+%Y%m%d"`
#m个数
parallel_count=16
for i in {1..1}
do
#redo rmr hdfs
hadoop fs -rmr /user/hdfs/${hive_table}
hadoop fs -rmr /user/hdfs/${tableName}
cfg=`grep -v '^#' /home/gamaxwin/mo9_azkaban/database_set.cfg | grep -i "jianghujiuji_riskdb"`
uid=`echo $cfg|awk -F, '{print $2}'`
url=`echo $cfg|awk -F, '{print $3}'`
pwd=`echo $cfg|awk -F, '{print $4}'`
jceks_path=`echo $cfg|awk -F, '{print $5}'`
sqoop import
-Dhadoop.security.credential.provider.path=${jceks_path}
--connect ${url}
--username ${uid}
--password-alias ${pwd}
--hive-import
--hive-overwrite
--hive-database ${hive_datebase}
--hive-table ${hive_table}
--fields-terminated-by 'x01'
--lines-terminated-by ' '
--null-string '\N'
--null-non-string '\N'
--hive-delims-replacement ' '
--compress
--compression-codec org.apache.hadoop.io.compress.SnappyCodec
--hive-partition-key $hive_partition_key
--hive-partition-value ${etl_time}
--target-dir /user/hdfs/${hive_table}
--query "select ${columns} from ${tableName} where $CONDITIONS"
--split-by id
-m ${parallel_count}
done
相关文章推荐
- sqoop抽取数据理论及常见问题
- sqoop抽取mysql数据 遇到问题及解决方案
- sqoop全量抽取postgresql数据
- 大数据技术之Sqoop配置示例
- Sqoop抽取数据到MySQL时遇到的一个坑
- hadoop之sqoop抽取数据
- sqoop的数据抽取过程记录
- 使用sqoop 在关系型数据库和Hadoop之间实现数据的抽取
- 通过DB_LINK按照分区表抽取数据
- Sqoop数据抽取-待续
- 使用sqoop从Oracle或mysql抽取数据到HDFS遇到的报错及解决
- Sqoop抽取文本数据到hive由于存在空字符导致字段错位和丢失错误
- GoldenGate配置从ADG抽取数据脚本示例
- Sqoop 测试数据导入示例
- Sqoop从mysql抽取数据到hive中
- sqoop 导出 hive分区表 数据到 mysql
- sqoop安装配置教程,以及从Oracle数据抽取数据的分析
- sqoop从关系型数据库导数据到hdfs和hbase上
- kettle 抽取数据 乱码的解决方法
- IBM WPS v8.5 数据迁移至DB2时因数据库用户权限不足引起的迁移失败问题解决示例