大数据(二十三)Hive【Hive三种启动方式 、 HIVE Server2详解 、 jdbc链接HIVE】
2017-10-29 14:04
921 查看
一:Hive的三种启动方式
1, hive 命令行模式
进入hive安装目录,输入bin/hive的执行程序,或者输入 hive –service cli 用于linux平台命令行查询,查询语句基本跟mysql查询语句类似2, hive web界面的启动方式
bin/hive –service hwi (& 表示后台运行) 用于通过浏览器来访问hive,感觉没多大用途,浏览器访问地址是:127.0.0.1:9999/hwi3, hive 远程服务 (端口号10000) 启动方式
bin/hive –service hiveserver2 &(&表示后台运行) 用java,python等程序实现通过jdbc等驱动的访问hive就用这种起动方式了,这个是程序员最需要的方式了二:HiveServer2
1, 启动命令
hive --service hiveserver /hiveserver2
2, 启动结果验证
telnet localhost 10000
3, 命令行链接hiveserver2
[root@node5 ~]# beeline
Beelineversion 1.2.1 by Apache Hive
beeline>!connect jdbc:hive2://localhost:10000 root
Connectingto jdbc:hive2://localhost:10000
Enterpassword for jdbc:hive2://localhost:10000:
Connectedto: Apache Hive (version 1.2.1)
Driver:Hive JDBC (version 1.2.1)
Transactionisolation: TRANSACTION_REPEATABLE_READ
0:jdbc:hive2://localhost:10000>
[/code][/code]0: jdbc:hive2://localhost:10000> show tables;
[/code]+-------------------+--+
[/code]| tab_name |
[/code]+-------------------+--+
[/code]| page_view |
[/code]| partitioned_test |
[/code]| people |
[/code]| people_new |
[/code]+-------------------+--+
[/code]4 rows selected (0.066 seconds)
4,JDBC链接HIVE
1、在Intellij下新建项目。 2、在项目中引入需要的hive和hadoop相关jar包 jar包分别位于hadoop-2.5.1\share\hadoop\common和apache-hive-1.2.1-bin\apache-hive-1.2.1-bin\lib中 3、新建测试类
/*** Created by ZhangJintao on 2017/10/29.*/import java.sql.Connection;import java.sql.ResultSet;import java.sql.Statement;import java.sql.DriverManager;public class testHIVESERVER2 {//驱动 urlprivate static String driverName = "org.apache.hive.jdbc.HiveDriver";/*** @param args*/public static void main(String[] args) {try {//加载驱动Class.forName(driverName);//链接hive数据仓库Connection con = DriverManager.getConnection("jdbc:hive2://192.168.1.205:10000/default", "root", "");//创建会话Statement stmt = con.createStatement();//执行dql,得到结果集ResultSet res = stmt.executeQuery("select count(*) from people " );// 遍历结果集,打印数据if(res.next()){System.out.println(res.getInt(1));}} catch (Exception e) {// 打印异常e.printStackTrace();System.exit(1);}}}4、运行项目 控制台显示如下,这表示项目已经启动,hadoop正在执行mapreduce。 此时我们前往http://192.168.1.201:8088下查看Scheduler和Applications,可以看到这个查询的mapreduce正在执行,如下图所示 待其执行完毕,我们就可以看到程序有如下输出
相关文章推荐
- hive 三种启动方式及用途,关注通过jdbc连接的启动
- hive 三种启动方式及用途,关注通过jdbc连接的启动
- hive 三种启动方式及用途,关注通过jdbc连接的启动
- hive 三种启动方式及用途,关注通过jdbc连接的启动
- 详解Ubuntu Server下启动/停止/重启MySQL数据库的三种方式
- Hive 总结(七)hive导出数据的三种方式
- hive 三种启动方式及用途
- java jdbc/ojdbc 链接oracle的三种方式
- 网站分析数据(即用户行为数据)的三种收集方式详解
- Ubuntu Server下启动/停止/重启MySQL数据库的三种方式
- hive 三种启动方式及用途
- cloudera-scm-server启动时出现Caused by: javax.persistence.PersistenceException: org.hibernate.exception.GenericJDBCException: Could not open connection问题解决方法(图文详解)
- Hive总结(八)Hive数据导出三种方式
- Ubuntu Server下启动/停止/重启MySQL数据库的三种方式
- Hive数据仓库--Java代码JDBC方式访问Hive中表的数据
- Activity之间传递数据的三种方式详解
- Ubuntu Server下启动/停止/重启MySQL数据库的三种方式
- jdbc mysql数据库链接 及 三种不同的注册驱动的方式
- cloudera-scm-server启动出现Error creating bean with name 'entityManagerFactoryBean'与HHH010003: JDBC Driver class not found: com.mysql.jdbc.Driver错误解决办法(图文详解)
- Hive三种不同的数据导出的方式