您的位置:首页 > 大数据

hadoop大数据平台手动搭建(三)-hive

2017-03-31 14:09 791 查看
hive的安装。hive只是作为hadoop客户端,我安装在master节点上。
1. 安装元数据库。默认的数据库为Derby. 生产中我们通常用其他数据库。因Derby只支持同时一个用户访问Hive. 下面用mysql来存储元数据。
yum install mysql
yum install mysql-server
yum install mysql-devel
   查看mysql状态,启动停止
service mysqld status|start|stop
   创建数据库
  create database hive;
 
认证hadoop用户(操作系统用户)可操作hive所有表。
 
grant all on hive.* to hadoop@'master' identified by '123456';
flush privileges;
2. 修改Hive配置文件
 
tar -zxvf /opt//opt/hive-1.1.0-cdh5.8.0.tar.gz
 
修改conf下hive-site.xml
 
<?xml version="1.0" encoding="UTF-8"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>

<property>

  <name>javax.jdo.option.ConnectionURL</name>

  <value>jdbc:mysql://master:3306/hive</value>

</property>

<property>

  <name>javax.jdo.option.ConnectionDriverName</name>

  <value>com.mysql.jdbc.Driver</value>

</property>

<property>

  <name>javax.jdo.option.ConnectionUserName</name>

  <value>hadoop</value>

  <description>username to use against metastore database</description>

</property>

<property>

  <name>javax.jdo.option.ConnectionPassword</name>

  <value>123456</value>

</property>

</configuration>

/etc/profile中加入环境变量
export HIVE_HOME=/opt/hive-1.1.0-cdh5.8.0

export PATH=$PATH:$HIVE_HOME/bin

然后执行命令

source /etc/profile

 

3.启动mysql,hadoop

  最好执行beeline(代替了hive命令,后续版本中)功能更强大。

hive查hive默认库中的表



 

 

beeline查元数据库中的表.连接之前必须启动./hiveserver2.sh



 

beeline查hive库中的表



 

 

 

 





大小: 86.7 KB




大小: 94.2 KB




大小: 116.4 KB
查看图片附件
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: