hadoop大数据平台手动搭建(三)-hive
2017-03-31 14:09
791 查看
hive的安装。hive只是作为hadoop客户端,我安装在master节点上。
1. 安装元数据库。默认的数据库为Derby. 生产中我们通常用其他数据库。因Derby只支持同时一个用户访问Hive. 下面用mysql来存储元数据。
yum install mysql
yum install mysql-server
yum install mysql-devel
查看mysql状态,启动停止
service mysqld status|start|stop
创建数据库
create database hive;
认证hadoop用户(操作系统用户)可操作hive所有表。
grant all on hive.* to hadoop@'master' identified by '123456';
flush privileges;
2. 修改Hive配置文件
tar -zxvf /opt//opt/hive-1.1.0-cdh5.8.0.tar.gz
修改conf下hive-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://master:3306/hive</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hadoop</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
</configuration>
/etc/profile中加入环境变量
export HIVE_HOME=/opt/hive-1.1.0-cdh5.8.0
export PATH=$PATH:$HIVE_HOME/bin
然后执行命令
source /etc/profile
3.启动mysql,hadoop
最好执行beeline(代替了hive命令,后续版本中)功能更强大。
hive查hive默认库中的表
beeline查元数据库中的表.连接之前必须启动./hiveserver2.sh
beeline查hive库中的表
大小: 86.7 KB
大小: 94.2 KB
大小: 116.4 KB
查看图片附件
1. 安装元数据库。默认的数据库为Derby. 生产中我们通常用其他数据库。因Derby只支持同时一个用户访问Hive. 下面用mysql来存储元数据。
yum install mysql
yum install mysql-server
yum install mysql-devel
查看mysql状态,启动停止
service mysqld status|start|stop
创建数据库
create database hive;
认证hadoop用户(操作系统用户)可操作hive所有表。
grant all on hive.* to hadoop@'master' identified by '123456';
flush privileges;
2. 修改Hive配置文件
tar -zxvf /opt//opt/hive-1.1.0-cdh5.8.0.tar.gz
修改conf下hive-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://master:3306/hive</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hadoop</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
</configuration>
/etc/profile中加入环境变量
export HIVE_HOME=/opt/hive-1.1.0-cdh5.8.0
export PATH=$PATH:$HIVE_HOME/bin
然后执行命令
source /etc/profile
3.启动mysql,hadoop
最好执行beeline(代替了hive命令,后续版本中)功能更强大。
hive查hive默认库中的表
beeline查元数据库中的表.连接之前必须启动./hiveserver2.sh
beeline查hive库中的表
大小: 86.7 KB
大小: 94.2 KB
大小: 116.4 KB
查看图片附件
相关文章推荐
- hadoop大数据平台手动搭建(七)-hue
- hadoop大数据平台手动搭建(二)-hadoop
- hadoop大数据平台手动搭建(一)-ssh,ntp
- hadoop大数据平台手动搭建(四)-hbase
- hadoop大数据平台手动搭建-hbase
- hadoop大数据平台手动搭建(五)-sqoop
- hadoop大数据平台手动搭建(八)HDFS High Availability Using the Quorum Journal Manager
- hadoop大数据平台手动搭建(六)-spark
- 大数据学习环境搭建(CentOS6.9+Hadoop2.7.3+Hive1.2.1+Hbase1.3.1+Spark2.1.1)
- Hadoop平台上用Sqoop在Hive和DB2数据库之间传输数据的实践和总结
- 大数据平台搭建之hive
- 大数据平台搭建(hadoop+spark)
- 大数据伪分布式环境搭建hadoop+zookeeper+hive+sqoop+hbase
- 大数据研发(一)Hadoop平台搭建
- 大数据平台搭建(hadoop+spark)
- 大数据平台搭建-hadoop/hbase集群的搭建
- 初探hadoop,hadoop大数据平台初次搭建经验
- 基于Apache Ambari搭建Hadoop大数据平台
- Hadoop数据分析平台搭建
- 揭秘FaceBook Puma演变及发展——FaceBook公司的实时数据分析平台是建立在Hadoop 和Hive的基础之上,这个根能立稳吗?hive又是sql的Map reduce任务拆分,底层还是依赖hbase和hdfs存储