Hive基本环境搭建(附赠Java和Hadoop的环境搭建)
2017-02-15 14:10
357 查看
Hive依赖于Hadoop,而Hadoop依赖于Java,所以第一步得先搭建Java环境。
2.如果有,可以选择卸载再装,或者跳过安装步骤,卸载的命令是:
3.查一下yum库里的Java安装包:
4.自行选一个版本安装,比如我就选择安装1.7.0版本的:
5.安装完,用输出一下Java版本号,看看是否安装成功:
6.确定一下Java安装在哪里了:
7.找到之后,开始配置环境变量,我这里是输出然后重定向到profile.d里的文件来生成环境变量的,当然你也可以自行去那个目录来新建和编辑文件:
8.刷新一下:
9.检测一下,如果输出正确,就可以进入下一步了,否则就自行检查一下命令有没有敲对:
Hadoop环境搭建
1.先选择好一个要存放Hadoop的目录,比如:
2.开始下载Hadoop(可以用浏览器打开 http://www.us.apache.org/dist/hadoop/common/ 来自行选择要安装的版本,然后替换下面的命令的url):
JAVA环境的搭建
1.先用yum检测一下是否已经安装了java:yum list installed | grep java
2.如果有,可以选择卸载再装,或者跳过安装步骤,卸载的命令是:
yum -y remove java*
3.查一下yum库里的Java安装包:
yum -y list java*
4.自行选一个版本安装,比如我就选择安装1.7.0版本的:
yum -y install java-1.7.0-openjdk*
5.安装完,用输出一下Java版本号,看看是否安装成功:
java -version
6.确定一下Java安装在哪里了:
whereis Java
7.找到之后,开始配置环境变量,我这里是输出然后重定向到profile.d里的文件来生成环境变量的,当然你也可以自行去那个目录来新建和编辑文件:
echo "export JAVA_HOME=/usr/java" > /etc/profile.d/java.sh echo "PATH=$PATH:$JAVA_HOME/bin" >> /etc/profile.d/java.sh
8.刷新一下:
. /etc/profile
9.检测一下,如果输出正确,就可以进入下一步了,否则就自行检查一下命令有没有敲对:
echo $JAVA_HOME
Hadoop环境搭建
1.先选择好一个要存放Hadoop的目录,比如:
cd ~
2.开始下载Hadoop(可以用浏览器打开 http://www.us.apache.org/dist/hadoop/common/ 来自行选择要安装的版本,然后替换下面的命令的url):
wget \ http://www.us.apache.org/dist/hadoop/common/hadoop-1.2.1/hadoop-1.2.1-bin.tar.gz[/code]
3.下载完了就解压一下:tar -xzf hadoop-1.2.1-bin.tar.gz
4.开始配置Hadoop的环境变量:echo "export HADOOP_HOME=$PWD/hadoop-1.2.1" > /etc/profile.d/hadoop.sh echo "PATH=$PATH:$HADOOP_HOME/bin" >> /etc/profile.d/hadoop.sh
5.刷新一下:. /etc/profile
6.这里可以执行个Hadoop命令来测试一下是否配置成功(这个命令与Linux的ls -l命令类似):hadoop dfs -ls /
7.如果输出正常,则说明配置成功,可以进入下一步,如果提示(hadoop: command not found),说明配置有问题,应自行检验。当然,你也可以试试指定绝对路径来执行这条命令,如果实在找不到哪里有问题,可以尝试把hadoop-1.2.1重命名为hadoop,然后把hadoop.sh里的值修改一下再试试:/root/hadoop/hadoop-1.2.1/bin/hadoop dfs -ls /Hive环境搭建
1.继续,选择一个存放Hive的目录:cd ~
2.下载(下载前去 http://archive.apache.org/dist/hive/ 找适合自己的版本,替换下面的url):curl -O http://archive.apache.org/dist/hive/hive-0.9.0/hive-0.9.0-bin.tar.gz[/code]
3.解压:tar -xzf hive-0.9.0-bin.tar.gz
4.新建我们的warehouse:mkdir -p /usr/hive/warehourse
5.修改warehourse的权限:chmod a+rwx /usr/hive/warehourse
6.配置下环境变量:echo "export HIVE_HOME=$PWD/hive-0.9.0-bin" > /etc/profile.d/hive.sh echo "PATH=$PATH:$HIVE_HOME/bin" >> /etc/profile.d/hive.sh
7.刷新一下:. /etc/profile
8.检查一下:$HIVE_HOME
OK,至此,配置就圆满结束了~~
9.如果需要自行配置本地模式的话,可以编辑(如果没有就新建)$HIVE_HOME/conf下的hive-site.xml文件添加以下内容:<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>hive.metastore.warehouse.dir</name> <value>/home/me/hive/warehouse</value> <description> Local or HDFS directory where Hive keeps table contents. </description> </property> <property> <name>hive.metastore.local</name> <value>true</value> <description> Use false if a production metastore server is used. </description> </property> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:derby:;databaseName=/home/me/hive/metastore_db;create=true</value> <description> The JDBC connection URL. </description> </property> </configuration>
10.还可以在hive-site.xml中进行元数据存储数据库的配置(如果已经配置了本地模式,就把下面的几个除了ConnectionURL之外的property复制进去就好了),配置完之后需要去 https://dev.mysql.com/downloads/connector/j/ 下载对应的Jconnector放到$HIVE_HOME/lib目录下:<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://db1.mydomain.pvt/hive_db?createDatabaseIfNotExist=true</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>database_user</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>database_pass</value> </property> </configuration>
下面我们来打开Hive的命令行界面(CLI)来试试水
1.(如果Hive环境配得很完美,那就直接在shell命令行输入hive回车即可进入CLI,然后就跳至第三步)进到hive的目录下:cd $HIVE_HOME
2.打开hive:bin/hive
3.然后就进入hive命令行界面了,我们先来新建个表(以下的命令前的“hive>”是hive的提示符,不需要输入,我将它写出来只是为了更清晰地区分Linux的命令行和hive的命令行):hive> create table x (a INT);
4.新建表后,select一下看看:hive> select * from x;
5.再试试删除表:hive> drop table x;
6.退出:hive> exit;
OK,试完了,继续愉快地学习吧~~
附我在开源中国的原文:
https://my.oschina.net/lonelycode/blog/833176
相关文章推荐
- Hive基本环境搭建(附赠Java和Hadoop的环境搭建)
- 虚拟机下linux+java+hadoop+hive环境搭建
- Hadoop生态组件之Hive环境搭建--第十讲(hive实战-java连接hive)
- hadoop+hive+fuse环境搭建
- Java程序员从笨鸟到菜鸟之(一)开发环境搭建,基本语法,字符串,数组
- Java程序员从笨鸟到菜鸟之(一)开发环境搭建,基本语法,字符串,数组
- Java基本开发环境搭建
- Java基本开发环境搭建
- Hadoop、hive环境搭建详解
- java基本环境搭建
- JAVA从零单排1-----搭建开发环境、基本语法
- Java程序员从笨鸟到菜鸟之(一)开发环境搭建,基本语法,字符串,数组
- Java基本开发环境搭建
- Java程序员从笨鸟到菜鸟之(一)开发环境搭建,基本语法,字符串,数组
- Java基本开发环境搭建
- java开发环境的搭建-----mysql的基本命令(五)
- Java程序员从笨鸟到菜鸟之(一)开发环境搭建,基本语法,字符串,数组
- 开始hadoop前的准备:ubuntu学习笔记-基本环境的搭建(ssh的安装,SecureCRT连接,vim的安装及使用、jdk的安装)
- 搭建Hadoop2.0(一)系统环境基本配置
- 黑马程序员——Java基本开发环境搭建