大数据处理工具之Hive安装配置实践
2018-03-27 17:37
106 查看
Hive是建立在Hadoop上的数据仓库基础构架。它提供了一系列的工具,可以用来进行数据提取转化加载(ETL),这是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。Hive定义了简单的类SQL查询语言,称为HQL,可通过它来检索Hadoop存储数据,而且所有的查询操作是基于MapReduce来完成的。
本文主要介绍了如何快速安装Hive组件的一种可行的方法。Hive的安装配置比较简单,只要确保HDFS和MapReduce已经正确运行即可开始我们的安装之旅了。那么今天我们就具体来看一看如何快速简便的安装Hive组件!
1.下载Hive
下载地址:http://www.apache.org/dyn/closer.cgi/hive 选择要下载的版本
2.把Hive移动到/usr/hadoop目录下并解压
mv hive-1.1.0.tar.gz /usr/;cd /usr
tar -zxvf hive-1.1.0.tar.gz
3.用root用户给hive-1.1.0授权
chown -R hadoop:hadoop hive
4.添加hive-1.1.0环境变量
vi .bash_profile
export JAVA_HOME=/usr/java/jdk1.6
export JRE_HOME=/usr/java/jdk1.6/jre
export HADOOP_HOME=/usr/hadoop
export HIVE_HOME=/usr/hive
export HBASE_HOME=/usr/hbase
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HIVE_HOME/bin:$HBASE_HOME/bin
5. 配置 Hive 配置文件
(1)配置 hive-conf.sh 在/usr/hive/bin目录下
HADOOP_HOME=/usr/hadoop
export HIVE_CONF_DIR=/usr/hive/conf
(2)配置 hive-default.xml 和 hive-site.xml
cd /usr/hive/conf
cp hive-default.xml.template hive-default.xml
cp hive-site.xml.template hive-site.xml
cp hive-exec-log4j.properties.template hive-exec-log4j.properties
cp hive-log4j.properties.template hive-log4j.properties
chown -R hadoop:hadoop hive-default.xml
chown -R hadoop:hadoop hive-site.xml
chown -R hadoop:hadoop hive-exec-log4j.properties
chown -R hadoop:hadoop hive-log4j.properties
6.启动Hive
#su - hadoop
#hive
7.测试
hive>create table test(key string);
hive>show tables;
若以上命令可以显示我们刚刚创建的test表,则证明我们已经正确的完成了Hive的搭建工作!
<script>window._bd_share_config={"common":{"bdSnsKey":{},"bdText":"","bdMini":"2","bdMiniList":false,"bdPic":"","bdStyle":"0","bdSize":"16"},"share":{}};with(document)0[(getElementsByTagName('head')[0]||body).appendChild(createElement('script')).src='http://bdimg.share.baidu.com/static/api/js/share.js?v=89860593.js?cdnversion='+~(-new Date()/36e5)];</script>
阅读(493) | 评论(0) | 转发(0) |
0
上一篇:linux 网络配置
下一篇:linux下snmp的安装
给主人留下些什么吧!~~
评论热议
本文主要介绍了如何快速安装Hive组件的一种可行的方法。Hive的安装配置比较简单,只要确保HDFS和MapReduce已经正确运行即可开始我们的安装之旅了。那么今天我们就具体来看一看如何快速简便的安装Hive组件!
1.下载Hive
下载地址:http://www.apache.org/dyn/closer.cgi/hive 选择要下载的版本
2.把Hive移动到/usr/hadoop目录下并解压
mv hive-1.1.0.tar.gz /usr/;cd /usr
tar -zxvf hive-1.1.0.tar.gz
3.用root用户给hive-1.1.0授权
chown -R hadoop:hadoop hive
4.添加hive-1.1.0环境变量
vi .bash_profile
export JAVA_HOME=/usr/java/jdk1.6
export JRE_HOME=/usr/java/jdk1.6/jre
export HADOOP_HOME=/usr/hadoop
export HIVE_HOME=/usr/hive
export HBASE_HOME=/usr/hbase
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HIVE_HOME/bin:$HBASE_HOME/bin
5. 配置 Hive 配置文件
(1)配置 hive-conf.sh 在/usr/hive/bin目录下
HADOOP_HOME=/usr/hadoop
export HIVE_CONF_DIR=/usr/hive/conf
(2)配置 hive-default.xml 和 hive-site.xml
cd /usr/hive/conf
cp hive-default.xml.template hive-default.xml
cp hive-site.xml.template hive-site.xml
cp hive-exec-log4j.properties.template hive-exec-log4j.properties
cp hive-log4j.properties.template hive-log4j.properties
chown -R hadoop:hadoop hive-default.xml
chown -R hadoop:hadoop hive-site.xml
chown -R hadoop:hadoop hive-exec-log4j.properties
chown -R hadoop:hadoop hive-log4j.properties
6.启动Hive
#su - hadoop
#hive
7.测试
hive>create table test(key string);
hive>show tables;
若以上命令可以显示我们刚刚创建的test表,则证明我们已经正确的完成了Hive的搭建工作!
<script>window._bd_share_config={"common":{"bdSnsKey":{},"bdText":"","bdMini":"2","bdMiniList":false,"bdPic":"","bdStyle":"0","bdSize":"16"},"share":{}};with(document)0[(getElementsByTagName('head')[0]||body).appendChild(createElement('script')).src='http://bdimg.share.baidu.com/static/api/js/share.js?v=89860593.js?cdnversion='+~(-new Date()/36e5)];</script>
阅读(493) | 评论(0) | 转发(0) |
0
上一篇:linux 网络配置
下一篇:linux下snmp的安装
给主人留下些什么吧!~~
评论热议
相关文章推荐
- 大数据实验室(大数据基础培训)——Hive的安装、配置及基础使用
- 数据/图像处理编程 gsl,mpi,boost 常用库 下载和安装配置
- 《深入理解大数据-大数据处理与编辑实践》hadoop1.2.1安装
- Sqoop数据迁移,工作机制,sqoop安装(配置),Sqoop的数据导入,导入表数据到HDFS,导入关系表到HIVE,导入到HDFS指定目录,导入表数据子集,按需导入,增量导入,sqoop数据导出
- hadoop2.6.0(单节点)下Sqoop-1.4.6安装与配置(数据读取涉及hadoop、hbase和hive)
- Hive安装与配置--- 基于MySQL元数据
- 大数据图形处理工具HAMA的安装及测试
- 大数据处理工具1——Flume安装及使用
- hadoop2.2.0(单节点)下Sqoop-1.4.6安装与配置(数据读取涉及hadoop、hbase和hive)
- HIVE的安装配置、mysql的安装、hive创建表、创建分区、修改表等内容、hive beeline使用、HIVE的四种数据导入方式、使用Java代码执行hive的sql命令
- 大数据 (十九)Hive【Hive安装配置(本地数据库模式)】
- hadoop和hive的实践应用(二)——基于Hadoop的数据仓库工具hive搭建
- 给Clouderamanager集群里安装基于Hive的大数据实时分析查询引擎工具Impala步骤(图文详解)
- hadoop上hive安装配置及报错处理
- hive安装、配置 mysql存储元数据
- 大数据生态系统基础: HIVE(一):HIVE 介绍及安装、配置
- Hadoop系列之Hive(数据仓库)安装配置
- Sqoop-1.4.6安装配置及Mysql->HDFS->Hive数据导入(基于Hadoop2.7.3)
- 基因数据处理18之基因序列生成工具wgsim安装和使用
- 大数据基础知识思维导图(Xmind)-MapReduce、Spark、Hive、Yarn等大数据处理工具