Spark SQL thrift server 部署
2016-04-14 09:25
316 查看
说明
1.需要先部署好hive和spark on yarn.2.Spark1.6对应Hive1.2.1,Spark1.4对应Hive0.13.
配置
将Hive的配置文件hive-site.xml和HDFS的配置文件core-site.xml,hdfs-site.xml复制到spark的配置文件夹conf.运行spark sql.
执行./bin/spark-sql
可以交互式查询Hive数据.
运行spark thrift server
类似于HiveServer2,推荐用这种方式.执行
./sbin/start-thriftserver.sh
将启动一个服务,通过10000端口提供远程访问.
也可以自定义参数如下:
./sbin/start-thriftserver.sh \ --hiveconf hive.server2.thrift.port=<listening-port> \ --hiveconf hive.server2.thrift.bind.host=<listening-host> --num-executors <num>
PS:如果该机器已经启动了HiveServer2占用了10000端口,则会启动失败,需要更换端口.
默认num-executors为2,代表executor的数量.
连接spark thrift server
连接方式很多,这里说下使用spark自带命令行工具beeline.启动客户端
./bin/beeline
连接thrift server
> ! connect jdbc:hive2://master:10000
若没有使用安全验证,用户名使用Linux的用户名,密码留空即可.
若有使用安全验证,请参考beeline的文档。
参考文献:
Spark SQL, DataFrames and Datasets Guidehttp://spark.apache.org/docs/latest/sql-programming-guide.html
相关文章推荐
- Spark RDD API详解(一) Map和Reduce
- 使用spark和spark mllib进行股票预测
- SQL中的三值逻辑
- SQL Server 作业批量停止
- 结束SQL阻塞的进程
- 动态生成SQL Server视图作业
- 我是运营,我没有假期
- 分享Hive的一份胶片资料
- SQL Server 语句操纵数据库
- Spark随谈——开发指南(译)
- SQL(结构化查询语句)
- oracle sql日期比较
- Spark,一种快速数据分析替代方案
- Hadoop生态上几个技术的关系与区别:hive、pig、hbase 关系与区别
- linux快速部署mysql服务器
- sql 存储过程分页
- DB2数据库的安装
- 在WINXP系统上安装SQL Server企业版的方法