spark-sql读取hive
2016-11-16 15:27
232 查看
Spark-1.3.1与Hive整合实现查询分析
操作步骤
1.我们可以通过指定SPARK_CLASSPATH变量,将需要访问Hive的元数据存储MySQL的驱动包加入进去,然后直接启动Spark SQL Shell即可。
SPARK_CLASSPATH="$SPARK_CLASSPATH:/app/apache-hive-1.2.1-bin/lib/mysql-connector-java-5.1.38-bin.jar"
2.通过Spark Shell进行操作,不过需要了解Spark SQL支持的Scala API,启动Spark Shell,执行如下命令:
spark-shell --master local[1]
3.然后,创建一个org.apache.spark.sql.hive.HiveContext对象,用来执行Hive查询:
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
sqlContext.sql("select imsi from test.test_weixin limit 2").collect().foreach(println)
操作步骤
1.我们可以通过指定SPARK_CLASSPATH变量,将需要访问Hive的元数据存储MySQL的驱动包加入进去,然后直接启动Spark SQL Shell即可。
SPARK_CLASSPATH="$SPARK_CLASSPATH:/app/apache-hive-1.2.1-bin/lib/mysql-connector-java-5.1.38-bin.jar"
2.通过Spark Shell进行操作,不过需要了解Spark SQL支持的Scala API,启动Spark Shell,执行如下命令:
spark-shell --master local[1]
3.然后,创建一个org.apache.spark.sql.hive.HiveContext对象,用来执行Hive查询:
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
sqlContext.sql("select imsi from test.test_weixin limit 2").collect().foreach(println)
相关文章推荐
- Spark SQL来读取现有Hive中的数据
- SparkSQL读取HBase数据,通过自定义外部数据源(hbase的Hive外关联表)
- sparkSQL读取hive分区表的问题追踪
- [Spark][Hive][Python][SQL]Spark 读取Hive表的小例子
- spark SQL (五)数据源 Data Source----json hive jdbc等数据的的读取与加载
- SparkSQL读取Hive中的数据
- spark-sql读取hive挂载alluxio
- SparkSQL读取Hive中的数据
- spark-sql读取映射hbase数据的hive外部表
- spark-sql读取映射hbase数据的hive外部表
- sparksql读取hive数据源配置
- Spark SQL读取hive数据时报找不到mysql驱动
- SparkSQL读取Hive中的数据
- Java实现SparkSQL Thrift方式读取Hive数据
- [spark]spark读取postgresql的表(纯SQL方式)
- SparkSQL On Yarn with Hive,操作和访问Hive表
- spark-sql 不兼容的hive语法列表
- Spark SQL+Hive历险记
- 基于Spark的Hive编程中,“Error:(8, 37) java: 程序包org.apache.spark.sql.api.java不存在”的解决办法
- SparkSQL与Hive的应用关系