您的位置:首页 > 运维架构

VMWare Workstation8.0上安装和配置Hadoop群集环境

2013-03-25 15:10 323 查看
在VMWareWorkstation8.0上安装和配置Hadoop群集环境
VMWare Workstation:VMware® Workstation8.0.0build-471780

JDK:1.6.0_25

Hadoop:hadoop-0.21.0

Linux:CentOS Release 5.5

Linux客户端:SSHSecureShellClient-3.2.9































启动后直接按回车键,即可进入图形安装界面;





直接选择下一步,并且选择英文字符,避免以后出现字符错乱问题,所以现在我们所有字符都已英文为主;







这里我们选择默认分区,不在自定义,为了节省更多的时间!!



然后就是选择时区,和设置root密码的截图,这里省略,不做截图,我选择上海的时区,密码:redhat;



这里可以选择server,和server-gui,也可以省略,全部不选择,来节约更多时间来按照其他节点。然后直接下一步







重启下系统,













最后进行完成工作;finish工作。

以此类推,按照类似步骤安装完成,3个节点的虚拟机环境,Redhat01,02,03这3个节点、



配置虚拟机的IP地址

用root账号登陆虚拟系统,输入以下命令:



配置如下模式,请知晓



修改主机名称:



笔者测试环境的虚拟机的IP地址和主机名的对应情况如下:

RedHat01 192.168.0.231 redhat01

RedHat02 192.168.0.232 redhat02

RedHat03 192.168.0.233 redhat03

并保持他们之间的网络相关可以PING通。保证网络没有问题即可



安装JDK

①安装JDK之前,先下载用于登录Linux的客户端SSH Secure Shell Client。下载地址:http://www.onlinedown.net/softdown/20089_2.htm(如果地址无效,可在网上搜索SSH
Secure)。


安装完成之后,将会有两个客户端,一个远程登录客户端,另一个FTP客户端






















④使用①中安装的远程登录工具,分别登录每台虚拟机,进行JDK的安装。

Ø 执行下面的指令,编辑/etc/profile文件,进行环境变量的设置



Ø 在相应的位置添加下图中蓝色框的下面红色框所圈出的内容



Ø 重新开启远程登录客户端,重新登录【必须重新登录远程登录客户端,环境变量才会起作用】

Ø 输入javac指令验证JDK安装是否成功



如出现上述内容则说明JDK安装成功,并且环境变量配置成功

建立虚拟机之间SSH无密码登录

Ø 按照如下顺序,在192.168.0.231虚拟机中执行框出的指令





测试192.168.0.231无需密码登陆直接直接登陆redhat02,03机器;



安装hadoop


① 在官方网站上下载hadoop-0.21.0版本

② 打开①中安装的FTP客户端SSHSecure File Transfer Client,然后将下载的hadoop上传到虚拟机的
/usr目录下。(注:每台虚拟机都要hadoop的安装)






3 配置HADOOP环境变量【和配置JDK环境变量类似】



4. 配置Hadoop配置文件

Ø 更改hadoop安装路径/conf/hadoop-env.sh(三个虚拟机都配)



Ø 更改hadoop安装路径/conf/masters和slaves两个文件。只配置192.168.0.231虚拟机









配置hadoop安装路径/conf/core-site.xml、hdfs-site.xml和mapred-site.xml三个文件。三个虚拟机都需要配置,并且配置的内容相同







至此,Hadoop框架在VMWareWorkstation虚拟机中安装任务全部结束。

进行验证安装是否成功

Ø 首先在192.168.0.231机器上执行如下指令,格式化文件系统

hdfsnamenode –format

执行结果如下:





Ø 然后在192.168.0.231机器上执行如下指令,启动HDFS文件系统

start-dfs.sh (停止HDFS文件系统:stop-dfs.sh)

执行结果如下:



Ø 执行如下指令,列出HDFS文件系统中存在的目录情况

hadoopfs –ls

执行结果如下:



Ø 关于hadoopfs指令的详细参数说明,请参照相关文档。



Ø 执行如下指令,启动MAPREDUCE框架

start-mapred.sh (停止MAPREDUCE框架:stop-mapred.sh)

执行结果如下:



Ø Web浏览器监视HDFS文件系统状态和MAPREDUCE执行任务的情况。

HDFS文件系统

浏览器中输入:http://192.168.0.231:50070/





浏览器中输入:http://192.168.0.231:50030

Ø 运行框架自带的wordcount示例

① 在192.168.0.231虚拟机中建立两个输入文件input1和input2



① HDFS中建立一个目录input



① 拷贝input1和input2两个文件到HDFS的input目录中



① 运行wordcount程序





① 查看运行结果



如果至此全部成功,那么恭喜整个Hadoop框架成功搭建与VMWareWorkstation软件中,下面的任务就是编写自己的程序,然后运行于该框架。尽情享受Hadoop的乐趣吧。

在安装过程中遇到了一些问题,就是在安装三个节点的时候,JDK大家在按照设置java_home的时候一定要注意前面的那个#,要去掉,呵呵,不然到时无法启动HDFS,还有就是50030这个端口无法访问!估计我的map-redouce没有做好,下来自己再看看!
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐