sqoop的使用
2016-07-29 23:03
417 查看
sqoop的使用
—-sqoop是一个用来在hadoop体系和关系型数据库之间进行数据互导的工具
—-实质就是将导入导出命令转换成mapreduce程序来实现
sqoop安装:安装在一台节点上就可以了。
1.上传sqoop
2.安装和配置
—-修改配置文件 sqoop-env.sh
3.使用
第一类:数据库中的数据导入到HDFS上
4.配置mysql远程连接
—-sqoop是一个用来在hadoop体系和关系型数据库之间进行数据互导的工具
—-实质就是将导入导出命令转换成mapreduce程序来实现
sqoop安装:安装在一台节点上就可以了。
1.上传sqoop
2.安装和配置
—-修改配置文件 sqoop-env.sh
#Set path to where bin/hadoop is available export HADOOP_COMMON_HOME=/home/hadoop/app/hadoop-2.4.1 #Set path to where hadoop-*-core.jar is available export HADOOP_MAPRED_HOME=/home/hadoop/app/hadoop-2.4.1 #set the path to where bin/hbase is available export HBASE_HOME=/home/hadoop/app/hbase-0.96.2-hadoop2 #Set the path to where bin/hive is available export HIVE_HOME=/home/hadoop/app/hive-0.12.0-bin #Set the path for where zookeper config dir is export ZOOCFGDIR=/home/hadoop/app/zookeeper-3.4.5/conf
在添加sqoop到环境变量 将数据库连接驱动拷贝到$SQOOP_HOME/lib里
3.使用
第一类:数据库中的数据导入到HDFS上
sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123 --table trade_detail --columns 'id, account, income, expenses' 指定输出路径、指定数据分隔符 sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123 ##要导入数据的表 --table trade_detail ##数据导入hdfs后所存放的目录 --target-dir '/sqoop/td' ##导入的数据字段之间的分隔符 --fields-terminated-by '\t' 指定Map数量 -m sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123 --table trade_detail --target-dir '/sqoop/td1' --fields-terminated-by '\t' ##指定做导入处理时的map 任务数 -m 2 增加where条件, 注意:条件必须用引号引起来 sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123 --table trade_detail --where 'id>3' --target-dir '/sqoop/td2' 增加query语句(使用 \ 将语句换行) sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123 --query 'SELECT * FROM trade_detail where id > 2 AND $CONDITIONS' --split-by trade_detail.id --target-dir '/sqoop/td3'
注意:如果使用--query这个命令的时候,需要注意的是where后面的参数,AND $CONDITIONS这个参数必须加上 而且存在单引号与双引号的区别,如果--query后面使用的是双引号,那么需要在$CONDITIONS前加上\即\$CONDITIONS 如果设置map数量为1个时即-m 1,不用加上--split-by ${tablename.column},否则需要加上 第二类:将HDFS上的文件数据导出到数据库的表里面去
sqoop export --connect jdbc:mysql://192.168.8.120:3306/itcast --username root --password 123 ##你要导出的数据所在的目录 --export-dir '/td3' ##你要导往的目标关系表 --table td_bak -m 1 ##你要导出的文件的字段分隔符 --fields-termianted-by '\t'
4.配置mysql远程连接
GRANT ALL PRIVILEGES ON itcast.* TO 'root'@'192.168.1.201' IDENTIFIED BY '123' WITH GRANT OPTION; FLUSH PRIVILEGES; GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '123' WITH GRANT OPTION; FLUSH PRIVILEGES
相关文章推荐
- Android之获取手机上的图片和视频缩略图thumbnails
- Android之使用Http协议实现文件上传功能
- 详解HDFS Short Circuit Local Reads
- 菜鸟说给菜鸟听之Beginning Linux Programming——Chapter1(1)
- 数据库链接字符串查询网站
- Hadoop_2.1.0 MapReduce序列图
- 使用Hadoop搭建现代电信企业架构
- 单机版搭建Hadoop环境图文教程详解
- DB2实例管理
- DB2实例管理
- 保障MySQL数据安全的14个最佳方法
- mysql问答汇集
- 第三章 数据库备份和还原
- 创建一个空的IBM DB2 ECO数据库的方法
- Access 2000 数据库 80 万记录通用快速分页类
- 开通一个数据库失败的原因的和解决办法
- 一个简单的asp数据库操作类
- CentOS下DB2数据库安装过程详解