Debian7下Hadoop-2.6.2伪分布式环境搭建
2015-11-27 05:12
507 查看
服务器使用阿里云学生优惠版的ESC,1核/1G, 系统为32位的Debian7。
然后调用
解决方法是修改
还有一个问题,我修改了服务器hostname为
解决方法为修改
无误后执行
下载安装Hadoop
wget http://apache.fayea.com/hadoop/common/hadoop-2.6.2/hadoop-2.6.2.tar.gz cp hadoop-2.6.2.tar.gz /usr/local cd /usr/local tar -zxvf hadoop-2.6.2.tar.gz rm hadoop-2.6.2.tar.gz
配置环境变量
修改~/.bashrc,添加:
export HADOOP_INSTALL=/usr/local/hadoop-2.6.2 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_INSTALL/sbin:$HADOOP_INSTALL/bin
然后调用
ssh-keygen生成公钥,将公钥添追加到
authorized_keys文件中去。(免密码SSH)
启动HDFS, MapReduce
由于我修改了SSH端口为345,因此直接执行start-all.sh会报
ssh: connect to host 0.0.0.0 port 22: Connection refused
解决方法是修改
conf/hadoop-env.sh,添加:
export HADOOP_SSH_OPTS="-p 345"
还有一个问题,我修改了服务器hostname为
wanghongfei,启动时还会报
java.net.UnknownHostException: wanghongfei
解决方法为修改
/etc/hosts, 在
localhost后面加上
wanghongfei。
无误后执行
start-all.sh即可。
相关文章推荐
- 详解HDFS Short Circuit Local Reads
- Hadoop_2.1.0 MapReduce序列图
- 使用Hadoop搭建现代电信企业架构
- 单机版搭建Hadoop环境图文教程详解
- hadoop常见错误以及处理方法详解
- hadoop 单机安装配置教程
- hadoop的hdfs文件操作实现上传文件到hdfs
- hadoop实现grep示例分享
- Apache Hadoop版本详解
- linux下搭建hadoop环境步骤分享
- hadoop client与datanode的通信协议分析
- hadoop中一些常用的命令介绍
- Hadoop单机版和全分布式(集群)安装
- 用PHP和Shell写Hadoop的MapReduce程序
- hadoop map-reduce中的文件并发操作
- Hadoop1.2中配置伪分布式的实例
- java结合HADOOP集群文件上传下载
- 用python + hadoop streaming 分布式编程(一) -- 原理介绍,样例程序与本地调试
- Hadoop安装感悟
- hadoop安装lzo