不同hadoop集群之间迁移hive数据
2016-02-27 10:03
447 查看
#!/bin/bash #set -x DB=$1 #获取hive表定义 ret=$(hive -e 'use ${DB};show tables;'|grep -v _es|grep -v _hb|grep -v importinfo) for tem in $ret; do hive -e "use ${DB};show create table $tem" >> /tmp/secha.sh echo -e ';\c' >> /tmp/secha.sh done #迁移hive的表数据 ret=$(hive -e 'use ${DB};show tables;'|grep -v _es|grep -v _hb|grep -v importinfo) for tem in $ret; do hadoop distcp hdfs://master:9000/user/hive/warehouse/${DB}.db/$tem hdfs://192.168.0.21:8020/user/hive/warehouse/${DB}.db/$tem done
相关文章推荐
- Opengl 轻型库和碰撞检测相关
- 解决sqoop需要输入密码的问题
- 解决sqoop需要输入密码的问题
- linux upstart机制简介及封装应用
- CentOS apache升级实录
- Unable to load configuration. - bean - jar:file:/D:/apache-tomcat-8.0.30/web
- Linux 挂载共享提示mount: 未知的文件系统 smbfs
- DevOps前沿技术培训课程大纲
- 修改tomcat端口,使一台机器同时运行2个tomcat
- 网站缓存技术
- 环信ONE SDK架构介绍
- 连接时出现:Can't open display: localhost:10.0
- 尝试在非root用户下进行nginx的反向代理-1
- Apache Commons DbUtils
- Centos6.X安装smokeping
- PHP入门及服务环境配置(Nginx+PHP)
- 为MacOS X创建.bash_profile
- centos下安装SS5服务器
- 针对Nginx应用优化Linux系统内核
- Nginx反向代理上传大文件报错(failed to load resource : net :: ERR_CONNECTION_RESET)