hive3.1.2 - hadoop3.2.1 搭建
2020-06-04 07:08
316 查看
前言
此前我写了一篇关于hive 1.2.1版本搭建的教程,参看https://www.geek-share.com/detail/2802226042.html。本篇主要讲基于hadoop3.x hive的搭建,中间的一些步骤与上篇教程一样,大家可以先看下上面链接,本篇主要描述hive3.x与历史版本搭建的不同之处。本地模式用的较少就不复赘述,直接从local模式开始,远程模式与历史版本无异,本篇也不再赘述。
一、local模式
1.修改hive-site.xml
[code]<configuration> <property> <name>hive.metastore.warehouse.dir</name> <value>/user/hive_remote/warehouse</value> </property> <property> <name>hive.exec.scratchdir</name> <value>/tmp/hive</value> <description>HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/<username> is created, with ${hive.scratch.dir.permission}.</description> </property> <property> <name>hive.exec.local.scratchdir</name> <value>/opt/software/hive/temp/root</value> </property> <property> <name>hive.downloaded.resources.dir</name> <value>/opt/software/hive/temp/${hive.session.id}_resources</value> </property> <property> <name>hive.server2.logging.operation.log.location</name> <value>/opt/software/hive/temp/root/operation_logs</value> </property> <property> <name>hive.querylog.location</name> <value>/opt/software/hive/temp/root</value> </property> <property> <name>hive.metastore.local</name> <value>true</value> </property> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://localhost/hive_meta?createDatabaseIfNotExist=true</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>hive</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>123</value> </property> </configuration>
2.修改hive-env.sh
[code]export HADOOP_HOME=/opt/software/hadoop export HIVE_CONF_DIR=/opt/software/hive/conf export HIVE_AUX_JARS_PATH=/opt/software/hive/lib
3.将hadoop/share/hadoop/common/lib 下的 guava-xx.jar 复制到hive/lib 下 将hive 的guava-xx.jar删除
4.大功告成了,赶快试试吧!
相关文章推荐
- hive1.2.1 在hadoop 2.6.0中搭建的问题
- 搭建Hadoop2.5.2+Hive2.1+Mysql
- Hadoop集群搭建与MySQL搭建和Hive安装
- 大数据学习系列之八----- Hadoop、Spark、HBase、Hive搭建环境遇到的错误以及解决方法
- 基于centos7.6搭建hadoop-3.1.2集群
- hive(01)、基于hadoop集群的数据仓库Hive搭建实践
- 大数据学习环境搭建(CentOS6.9+Hadoop2.7.3+Hive1.2.1+Hbase1.3.1+Spark2.1.1)
- Hadoop3.1.2集群搭建及简单的排序,统计实现
- Hive基本环境搭建(附赠Java和Hadoop的环境搭建)
- 在centos7上进行hadoop-3.1.2的伪分布搭建
- hadoop和hive的实践应用(一)——hadoop分布式平台搭建
- 大数据学习系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集群搭建 图文详解
- 最全图文教你怎么搭建分布式hadoop+zkp+hbase+mysql+hive+sqoop
- 伪分布式集群环境搭建、jdk、hadoop、zk、hbase、hive、mysql
- 搭建Hadoop2.7.3+Hive2.1.1及MySQL(配置Hive+MySQL+Connector)(三)
- hadoop集群搭建之hive安装
- hadoop+hive-完全分布式环境搭建
- Hadoop-2.6.0+Zookeeper-3.4.6+Spark-1.5.0+Hbase-1.1.2+Hive-1.2.0集群搭建
- hadoop大数据平台手动搭建(三)-hive
- 大数据学习系列之八----- Hadoop、Spark、HBase、Hive搭建环境遇到的错误以及解