单机伪分布式环境搭建(配置Hadoop)
2017-08-25 00:00
489 查看
1、解压Hadoop压缩包
2、配置Hadoop
/opt/modules/hadoop-2.5.0/etc/hadoop/Hadoop-env.sh
/opt/modules/hadoop-2.5.0/etc/hadoop/mapred-env.sh
/opt/modules/hadoop-2.5.0/etc/hadoop/yarn-env.sh
在这3个文件中都配置
export JAVA_HOME=/opt/modules/jdk1.7.0_67
3、与hdfs相关的配置
1>、core-site.xml
<!--NameNode地址,8020是指定进程8020,访问入口-->
<property>
<name>fs.defaultFS</name>
<value>hdfs://bigdata.ibeifeng.com:8020</value>
</property>
<!--hadoop在运行时产生的文件,元数据在本地的存放目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/modules/hadoop-2.5.0/data</value>
</property>
2>、hdfs-site.xml
<!--存放到hdfs上的文件的副本数,伪分布式配置为1 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
3)格式化namenode 只格式化一遍,不要重复格式化
${HADOOP_HOME}目录下:
$ bin/hdfs namenode -format
4)启动hdfs守护进程
$ sbin/hadoop-daemon.sh start namenode //启动namenode进程
$ sbin/hadoop-daemon.sh start datanode //启动datanode
用jps查看进程是否启动
5)HDFS文件系统常用命令
$ bin/hdfs dfs -rm -R /文件名 删除文件命令
$ bin/hdfs dfs -mkdir -p /文件名 创建文件命令
$ bin/hdfs dfs -ls / 查看所有文件命令
$ bin/hdfs dfs -put /原文件路径 /目标路径 上传文件命令
4.配置YARN 任务调度 (Mapreduce) 资源管理(resourcemanager
nodemanager)
${HADOOP_HOME}/etc/hadoop目录下配置yarn-site.xml
=======yarn-site.xml=====
<!-- 指定ResorceManager所在服务器的主机名-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>[hostname]</value>
</property>
<!-- 指明在执行MapReduce的时候使用shuffle-->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
复制并重名模板文件
$ cp mapred-site.xml.template mapred-queues.xml
=======mapred-site.xml=====
${HADOOP_HOME}/etc/hadoop目录下配置mapred-site.xml
<!-- 指定MapReduce基于Yarn来运行-->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
4.启动hdfs yarn进程
$ sbin/yarn-daemon.sh start resourcemanager
$ sbin/yarn-daemon.sh start nodemanager
5.配置日志聚合
=======mapred-site.xml=========
**追加到原来配置和后面
<property>
<name>mapreduce.jobhistory.address</name>
<!--配置实际的主机名和端口-->
<value>[hostname]:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>[hostname]:19888</value>
</property>
==============yarn-site.xml=======
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!--日志保存时间-->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>86400</value>
</property>
6.停止所有进程重新启动,以便配置文件生效
1)停止进程
$ sbin/hadoop-daemon.sh stop namenode
$ sbin/hadoop-daemon.sh stop datanode
$ sbin/yarn-daemon.sh stop resourcemanager
$ sbin/yarn-daemon.sh stop nodemanager
2)启动进程
$ sbin/hadoop-daemon.sh start namenode
$ sbin/hadoop-daemon.sh start datanode
$ sbin/yarn-daemon.sh start resourcemanager
$ sbin/yarn-daemon.sh start nodemanager
3)启动历史
启动历史服务
$ sbin/mr-jobhistory-daemon.sh start historyserver
2、配置Hadoop
/opt/modules/hadoop-2.5.0/etc/hadoop/Hadoop-env.sh
/opt/modules/hadoop-2.5.0/etc/hadoop/mapred-env.sh
/opt/modules/hadoop-2.5.0/etc/hadoop/yarn-env.sh
在这3个文件中都配置
export JAVA_HOME=/opt/modules/jdk1.7.0_67
3、与hdfs相关的配置
1>、core-site.xml
<!--NameNode地址,8020是指定进程8020,访问入口-->
<property>
<name>fs.defaultFS</name>
<value>hdfs://bigdata.ibeifeng.com:8020</value>
</property>
<!--hadoop在运行时产生的文件,元数据在本地的存放目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/modules/hadoop-2.5.0/data</value>
</property>
2>、hdfs-site.xml
<!--存放到hdfs上的文件的副本数,伪分布式配置为1 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
3)格式化namenode 只格式化一遍,不要重复格式化
${HADOOP_HOME}目录下:
$ bin/hdfs namenode -format
4)启动hdfs守护进程
$ sbin/hadoop-daemon.sh start namenode //启动namenode进程
$ sbin/hadoop-daemon.sh start datanode //启动datanode
用jps查看进程是否启动
5)HDFS文件系统常用命令
$ bin/hdfs dfs -rm -R /文件名 删除文件命令
$ bin/hdfs dfs -mkdir -p /文件名 创建文件命令
$ bin/hdfs dfs -ls / 查看所有文件命令
$ bin/hdfs dfs -put /原文件路径 /目标路径 上传文件命令
4.配置YARN 任务调度 (Mapreduce) 资源管理(resourcemanager
nodemanager)
${HADOOP_HOME}/etc/hadoop目录下配置yarn-site.xml
=======yarn-site.xml=====
<!-- 指定ResorceManager所在服务器的主机名-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>[hostname]</value>
</property>
<!-- 指明在执行MapReduce的时候使用shuffle-->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
复制并重名模板文件
$ cp mapred-site.xml.template mapred-queues.xml
=======mapred-site.xml=====
${HADOOP_HOME}/etc/hadoop目录下配置mapred-site.xml
<!-- 指定MapReduce基于Yarn来运行-->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
4.启动hdfs yarn进程
$ sbin/yarn-daemon.sh start resourcemanager
$ sbin/yarn-daemon.sh start nodemanager
5.配置日志聚合
=======mapred-site.xml=========
**追加到原来配置和后面
<property>
<name>mapreduce.jobhistory.address</name>
<!--配置实际的主机名和端口-->
<value>[hostname]:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>[hostname]:19888</value>
</property>
==============yarn-site.xml=======
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!--日志保存时间-->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>86400</value>
</property>
6.停止所有进程重新启动,以便配置文件生效
1)停止进程
$ sbin/hadoop-daemon.sh stop namenode
$ sbin/hadoop-daemon.sh stop datanode
$ sbin/yarn-daemon.sh stop resourcemanager
$ sbin/yarn-daemon.sh stop nodemanager
2)启动进程
$ sbin/hadoop-daemon.sh start namenode
$ sbin/hadoop-daemon.sh start datanode
$ sbin/yarn-daemon.sh start resourcemanager
$ sbin/yarn-daemon.sh start nodemanager
3)启动历史
启动历史服务
$ sbin/mr-jobhistory-daemon.sh start historyserver
相关文章推荐
- centos下搭建单机和伪分布式hadoop环境-(3)配置hadoop的伪分布式模式
- Hadoop系列~环境搭建,单机/伪分布式配置(一)
- ubuntu12.04下安装hadoop-1.0.3 并搭建单机伪分布式运行环境(一)
- Hadoop 2.0:分布式环境搭建安装配置
- centos下搭建单机和伪分布式hadoop环境-(1)写在前面
- ubuntu安装配置hadoop伪分布式及eclipse搭建hadoop环境
- 单机搭建Hadoop伪分布式环境
- 从零开始搭建hadoop分布式集群环境:(四)配置ssh无密码登录
- Centos7.0配置Hadoop2.6.3单机/伪分布式环境
- centos下搭建单机和伪分布式hadoop环境-(4)搭建过程中的问题汇总
- Hadoop2.7.2 Centos 完全分布式集群环境搭建 (2) - Hadoop安装与配置(完全分布式)
- hadoop - hadoop2.6 分布式 - 集群环境搭建 - JDK安装配置和SSH安装配置与免密码登陆(集群中)
- hadoop - hadoop2.6 分布式 - 集群环境搭建 - Hadoop 2.6 分布式安装配置与启动
- hadoop - hadoop2.6 分布式 - 集群环境搭建 - Hadoop 2.6 分布式 配置,初始化,启动过程
- Ubuntu hadoop 伪分布式环境搭建步骤+ssh密钥(免密码登录)配置
- 使用docker搭建hadoop环境,并配置伪分布式模式
- CentOS6.7 下搭建 Hadoop2.7.1 单机伪分布式环境
- win7(64位)平台下Cygwin+Eclipse搭建Hadoop单机开发环境 (三) 在Eclipse中配置Hadoop
- hadoop2.6完全分布式环境搭建(下-->配置文件)
- 王家林 云计算分布式大数据Hadoop实战高手之路---从零开始 第二讲:全球最详细的从零起步搭建Hadoop单机和伪分布式开发环境图文教程