spark整合hive和sql
2017-09-07 17:30
253 查看
1.首相将hive中的配置文件hive-site.xml,hadoop的配置文件core-site.xml,hdfs-site.xml
------复制到$SPARK_HOME/conf/目录中
2.再将jdbc驱动程序mysql-connector-java-x.x.x.jar 复制到$SPARK_HOME/jars或者$SPARK_HOME/lib目录下
3.启动动hadoop,hive和mysql
4.启动spark local模式
bin/spark-shell --driver-class-path $SPARK_HOME/jars/mysql-connector-java-x.x.x.jar
5.测试
-----a.创建hiveContext对象 val hc =org.apache.spark.sql.hive.HiveContext(sc)
-----b.创建表 hc.sql("create table test (a string,b string) row format delimited fields terminated by ',' ")
-----c.增加数据hc.sql("load data local 'filePath' into table test")
----------数据为:
----------Tom,20
----------Jim,40
----------Rose,50
-----d.查看数据hc.sql("select *from test")
=================================================================
下面测试mysql连接:
1.我们是通过hiveContext去连接的,语句为
val msyql = hc.read.format("jdbc").options(Map("url"->"jdbc:mysql://ip:3306/数据库名字?user=用户名&password=密码","dbtable"->"表名","driver"->"com.mysql.jdbc.Driver")).load()
2.查看表的内容
msyql.show()
相关文章推荐
- SparkSQL与Hive的整合
- SparkSQL与Hive的整合
- 3.sparkSQL整合Hive
- SparkSQL:Spark整合Hive
- SparkSql整合Hive注意点
- Spark-SQL与hive整合【版本spark1.6.0+hive0.14】--Standalone模式
- spark sql与hive整合
- Spark SQL整合Hive使用
- Spark-Sql整合hive,在spark-sql命令和spark-shell命令下执行sql命令和整合调用hive
- 实战 - Spark SQL 整合Hive时,报错找不到mysql驱动
- sparksql与hive整合
- spark-sql(spark sql cli)客户端集成hive
- SparkSQL和Hive在做cast boolean存在的不同
- Spark整合Hive
- window+sparksql+hive+debug sparksql本地环境搭建
- [Spark]Shark, Spark SQL, Hive on Spark以及SQL On Spark的未来
- Spark SQL 与 Spark SQL on Hive 区别
- Spark SQL 与 Spark SQL on Hive 区别
- SparkSQL读取HBase数据,通过自定义外部数据源(hbase的Hive外关联表)
- spark-2.0.0与hive-1.2.1整合