一、Hadoop单机版standalone的安装与配置(Hadoop1.2.1,CentOS6.5)
2015-10-29 15:50
691 查看
一、安装jdk
1、下载bin包,自行下载,上传到CentOS6.5中,
2、安装bin包,
# chmod 755 jdk-6u27-linux-x64-rpm.bin
# ./jdk-6u27-linux-x64-rpm.bin
3、配置环境变量
# vi /etc/profile
添加如下
export JAVA_HOME=/usr/java/jdk1.6.0_27
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export path=$PATH:$JAVA_HOME/bin
使配置生效
# source /etc/profiles
二、配置SSH免密码登录
参考文章:/article/9082915.html
三、安装Hadoop
下载地址:https://dist.apache.org/repos/dist/release/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
解压hadoop(tar xvf hadoop-1.2.1.tar.gz)
1、环境hadoop变量配置
# vi hadoop-env.sh
添加如下内容
export JAVA_HOME=/usr/java/jdk1.6.0_27/
2、配置conf/core-site.xml文件,Hadoop的核心文件,配置的是HDFS的地址和端口号
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
3、配置conf/hdfs-site.xml,Hadoop中的HDFS的配置,配置的备份方式默认是3,在单机版的Hadoop中,需要设置为1
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
4、配置conf/mapred-site.xml,Hadoop中MapReduce配置文件,配置JobTracker的地址和端口
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
5、启动Hadoop之前需要格式化Hadoop的文件系统HDFS
# ./bin/hadoop namenode -format
6、启动Hadoop
# ./bin/start-all.sh
7、访问地址确保启动成功了
http://192.168.10.128:50030
http://192.168.10.128:50070
1、下载bin包,自行下载,上传到CentOS6.5中,
2、安装bin包,
# chmod 755 jdk-6u27-linux-x64-rpm.bin
# ./jdk-6u27-linux-x64-rpm.bin
3、配置环境变量
# vi /etc/profile
添加如下
export JAVA_HOME=/usr/java/jdk1.6.0_27
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export path=$PATH:$JAVA_HOME/bin
使配置生效
# source /etc/profiles
二、配置SSH免密码登录
参考文章:/article/9082915.html
三、安装Hadoop
下载地址:https://dist.apache.org/repos/dist/release/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
解压hadoop(tar xvf hadoop-1.2.1.tar.gz)
1、环境hadoop变量配置
# vi hadoop-env.sh
添加如下内容
export JAVA_HOME=/usr/java/jdk1.6.0_27/
2、配置conf/core-site.xml文件,Hadoop的核心文件,配置的是HDFS的地址和端口号
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
3、配置conf/hdfs-site.xml,Hadoop中的HDFS的配置,配置的备份方式默认是3,在单机版的Hadoop中,需要设置为1
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
4、配置conf/mapred-site.xml,Hadoop中MapReduce配置文件,配置JobTracker的地址和端口
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
5、启动Hadoop之前需要格式化Hadoop的文件系统HDFS
# ./bin/hadoop namenode -format
6、启动Hadoop
# ./bin/start-all.sh
7、访问地址确保启动成功了
http://192.168.10.128:50030
http://192.168.10.128:50070
相关文章推荐
- linux的ssl通讯协议的编程
- Linux zabbix IO监控 步骤脚本和模板
- Red Hat未注册而使用yum的解决方法
- xmanager连接Centos的远程桌面
- 在windows下进行linux开发:利用Vagrant+virtualbox
- 解决linux 出现如下报错:Another app is currently holding the yum lock;
- 使用Linux正则表达式灵活搜索文件中的文本
- linux用户的10个有用工具
- 重识yum(updating)
- Linux Swap的基本原理
- linux下安装matlab
- CENTOS6.3利用Keepalived构建双主MySQL+双机热备
- Linux搭建SVN服务器
- Linux下FTP用户权限的更改
- centos7重启后网卡默认关闭的解决办法
- linux下mysql的root密码忘记解决方
- linux挂载新硬盘
- linux内核设计与实现--内存管理
- Linux下用dd命令测试硬盘的读写速度
- RHEL6下禁用selinux的方法