您的位置:首页 > 运维架构

Debian7下Hadoop-2.6.2伪分布式环境搭建

2015-11-27 05:12 507 查看
服务器使用阿里云学生优惠版的ESC,1核/1G, 系统为32位的Debian7。

下载安装Hadoop

wget http://apache.fayea.com/hadoop/common/hadoop-2.6.2/hadoop-2.6.2.tar.gz cp hadoop-2.6.2.tar.gz /usr/local
cd /usr/local
tar -zxvf hadoop-2.6.2.tar.gz
rm hadoop-2.6.2.tar.gz


配置环境变量

修改
~/.bashrc
,添加:

export HADOOP_INSTALL=/usr/local/hadoop-2.6.2
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_INSTALL/sbin:$HADOOP_INSTALL/bin


然后调用
ssh-keygen
生成公钥,将公钥添追加到
authorized_keys
文件中去。(免密码SSH)

启动HDFS, MapReduce

由于我修改了SSH端口为345,因此直接执行
start-all.sh
会报

ssh: connect to host 0.0.0.0 port 22: Connection refused


解决方法是修改
conf/hadoop-env.sh
,添加:

export HADOOP_SSH_OPTS="-p 345"


还有一个问题,我修改了服务器hostname为
wanghongfei
,启动时还会报

java.net.UnknownHostException: wanghongfei


解决方法为修改
/etc/hosts
, 在
localhost
后面加上
wanghongfei


无误后执行
start-all.sh
即可。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  hadoop