您的位置:首页 > 数据库

SparkSQL ThriftServer服务的使用和程序中JDBC的连接

2017-04-25 18:44 477 查看
一:使用

1.实质

  提供JDBC/ODBC连接的服务

  服务运行方式是一个Spark的应用程序,只是这个应用程序支持JDBC/ODBC的连接, 所以:可以通过应用的4040页面来进行查看操作

2.启动服务

  


3.配置(已经被隐含)

  1. 配置thriftserver2的ip地址和端口号
    修改hive-site.xml文件
    hive.server2.thrift.port=10000
    hive.server2.thrift.host=localhost
  2. 集成Hive环境(类似SparkSQL)
  3. 启动服务
    $ sbin/start-thriftserver.sh
    $ sbin/stop-thriftserver.sh
  4. 测试

二:测试

1.前提

  需要开启的服务,metastore,thriftserver

  


2.测试

  命令行测试,使用beeline脚本连接

  


3.界面(4040端口)

  


4.测试sql语句

  测试一:

  


  测试二:

  


三:程序

1.建包

  


2.添加依赖包

  


3.程序

1 package com.ibeifeng.bigdata.spark.sql
2
3 import java.sql.DriverManager
4
5 /**
6  * Created by Administrator on 2017/4/25.
7  */
8 object ThriftserverDemo {
9   def main(args: Array[String]):Unit= {
10     //add driver
11     val driver="org.apache.hive.jdbc.HiveDriver"
12     Class.forName(driver)
13
14     //get connection
15     val (url,username,userpasswd)=("jdbc:hive2://linux-hadoop3.ibeifeng.com:10000","beifeng","beifeng")
16     val connection=DriverManager.getConnection(url,username,userpasswd)
17
18     //get statement
19     connection.prepareStatement("use db_emp").execute()
20     val sql="select * from dept d join emp e on d.deptno=e.deptno"
21     val statement=connection.prepareStatement(sql)
22
23     //get result
24     val rs=statement.executeQuery()
25     while(rs.next()){
26       println(s"${rs.getString(1)}:${rs.getString(2)}")
27     }
28
29     //close
30     rs.close()
31     statement.close()
32     connection.close()
33   }
34 }


4.运行结果

  
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐