您的位置:首页 > 编程语言 > Java开发

Hive基本环境搭建(附赠Java和Hadoop的环境搭建)

2017-02-15 14:10 357 查看
Hive依赖于Hadoop,而Hadoop依赖于Java,所以第一步得先搭建Java环境。

JAVA环境的搭建

1.先用yum检测一下是否已经安装了java:

yum list installed | grep java


2.如果有,可以选择卸载再装,或者跳过安装步骤,卸载的命令是:

yum -y remove java*


3.查一下yum库里的Java安装包:

yum -y list java*


4.自行选一个版本安装,比如我就选择安装1.7.0版本的:

yum -y install java-1.7.0-openjdk*


5.安装完,用输出一下Java版本号,看看是否安装成功:

java -version


6.确定一下Java安装在哪里了:

whereis Java


7.找到之后,开始配置环境变量,我这里是输出然后重定向到profile.d里的文件来生成环境变量的,当然你也可以自行去那个目录来新建和编辑文件:

echo "export JAVA_HOME=/usr/java" > /etc/profile.d/java.sh
echo "PATH=$PATH:$JAVA_HOME/bin" >> /etc/profile.d/java.sh


8.刷新一下:

. /etc/profile


9.检测一下,如果输出正确,就可以进入下一步了,否则就自行检查一下命令有没有敲对:

echo $JAVA_HOME


Hadoop环境搭建

1.先选择好一个要存放Hadoop的目录,比如:

cd ~


2.开始下载Hadoop(可以用浏览器打开 http://www.us.apache.org/dist/hadoop/common/ 来自行选择要安装的版本,然后替换下面的命令的url):

wget \ http://www.us.apache.org/dist/hadoop/common/hadoop-1.2.1/hadoop-1.2.1-bin.tar.gz[/code] 
3.下载完了就解压一下:

tar -xzf hadoop-1.2.1-bin.tar.gz


4.开始配置Hadoop的环境变量:

echo "export HADOOP_HOME=$PWD/hadoop-1.2.1" > /etc/profile.d/hadoop.sh
echo "PATH=$PATH:$HADOOP_HOME/bin" >> /etc/profile.d/hadoop.sh


5.刷新一下:

. /etc/profile


6.这里可以执行个Hadoop命令来测试一下是否配置成功(这个命令与Linux的ls -l命令类似):

hadoop dfs -ls /


7.如果输出正常,则说明配置成功,可以进入下一步,如果提示(hadoop: command not found),说明配置有问题,应自行检验。当然,你也可以试试指定绝对路径来执行这条命令,如果实在找不到哪里有问题,可以尝试把hadoop-1.2.1重命名为hadoop,然后把hadoop.sh里的值修改一下再试试:

/root/hadoop/hadoop-1.2.1/bin/hadoop dfs -ls /


Hive环境搭建

1.继续,选择一个存放Hive的目录:

cd ~


2.下载(下载前去 http://archive.apache.org/dist/hive/ 找适合自己的版本,替换下面的url):

curl -O http://archive.apache.org/dist/hive/hive-0.9.0/hive-0.9.0-bin.tar.gz[/code] 
3.解压:

tar -xzf hive-0.9.0-bin.tar.gz


4.新建我们的warehouse:

mkdir -p /usr/hive/warehourse


5.修改warehourse的权限:

chmod a+rwx /usr/hive/warehourse


6.配置下环境变量:

echo "export HIVE_HOME=$PWD/hive-0.9.0-bin" > /etc/profile.d/hive.sh
echo "PATH=$PATH:$HIVE_HOME/bin" >> /etc/profile.d/hive.sh


7.刷新一下:

. /etc/profile


8.检查一下:

$HIVE_HOME


OK,至此,配置就圆满结束了~~

9.如果需要自行配置本地模式的话,可以编辑(如果没有就新建)$HIVE_HOME/conf下的hive-site.xml文件添加以下内容:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/home/me/hive/warehouse</value>
<description>
Local or HDFS directory where Hive keeps table contents.
</description>
</property>
<property>
<name>hive.metastore.local</name>
<value>true</value>
<description>
Use false if a production metastore server is used.
</description>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:derby:;databaseName=/home/me/hive/metastore_db;create=true</value>
<description>
The JDBC connection URL.
</description>
</property>
</configuration>


10.还可以在hive-site.xml中进行元数据存储数据库的配置(如果已经配置了本地模式,就把下面的几个除了ConnectionURL之外的property复制进去就好了),配置完之后需要去 https://dev.mysql.com/downloads/connector/j/ 下载对应的Jconnector放到$HIVE_HOME/lib目录下:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://db1.mydomain.pvt/hive_db?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>database_user</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>database_pass</value>
</property>
</configuration>


下面我们来打开Hive的命令行界面(CLI)来试试水

1.(如果Hive环境配得很完美,那就直接在shell命令行输入hive回车即可进入CLI,然后就跳至第三步)进到hive的目录下:

cd $HIVE_HOME


2.打开hive:

bin/hive


3.然后就进入hive命令行界面了,我们先来新建个表(以下的命令前的“hive>”是hive的提示符,不需要输入,我将它写出来只是为了更清晰地区分Linux的命令行和hive的命令行):

hive> create table x (a INT);


4.新建表后,select一下看看:

hive> select * from x;


5.再试试删除表:

hive> drop table x;


6.退出:

hive> exit;


OK,试完了,继续愉快地学习吧~~

附我在开源中国的原文:

https://my.oschina.net/lonelycode/blog/833176
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  hadoop hive