hadoop3.1.3分布式集群搭建
2020-07-31 15:35
1016 查看
环境准备:
jdk1.8
centos6.10
zookeeper3.4.5
三台服务器免密登录配置完成(此处省略步骤)
1、上传Hadoop3.1.3安装包并解压
这里我是安装在/usr/local 这个路径下
解压:tar -zxvf /usr/local/hadoop-3.1.3.tar.gz
2、首先提前创建好需要的文件夹
mkdir -p /usr/local/hadoop/data mkdir -p /usr/local/hadoop/dfs mkdir -p /usr/local/hadoop/tmp
3、vi /etc/profile
配置hadoop的安装路径
export HADOOP_HOME=/usr/local/hadoop-3.1.3 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile 才会生效
4、vi /etc/hosts
配置三台服务器的主机名和ip
192.168.130.28 myhbase 192.168.130.29 xmhl 192.168.130.30 xmhl30
5、vi core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://xmhl:9000</value> tfs:// gfs:// file:/// </property> <!-- 指定hadoop运行时产生文件的存储目录,默认/tmp/hadoop-${user.name} --> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop/tmp</value> </property> <property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.root.groups</name> <value>*</value> </property> </configuration>
6、vi hadoop-env.sh
export JAVA_HOME=/usr/local/jdk1.8.0_141
7、vi mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
8、vi yarn-site.xml
<configuration> <!-- Site specific YARN configuration properties --> <property><!--NodeManager上运行的附属服务,用于运行mapreduce--> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>xmhl:8088</value> </property> <property> <name>yarn.resourcemanager.hostname</name> <value>xmhl</value> </property> <property> <name>yarn.application.classpath</name> <value>/usr/local/hadoop-3.1.3/etc/hadoop:/usr/local/hadoop-3.1.3/share/hadoop/common/lib/*:/usr/local/hadoop-3.1.3/share/hadoop/common/*:/usr/local/hadoop-3.1.3/share/hadoop/hdfs:/usr/local/hadoop-3.1.3/share/hadoop/hdfs/lib/*:/usr/local/hadoop-3.1.3/share/hadoop/hdfs/*:/usr/local/hadoop-3.1.3/share/hadoop/mapreduce/lib/*:/usr/local/hadoop-3.1.3/share/hadoop/mapreduce/*:/usr/local/hadoop-3.1.3/share/hadoop/yarn:/usr/local/hadoop-3.1.3/share/hadoop/yarn/lib/*:/usr/local/hadoop-3.1.3/share/hadoop/yarn/*</value> </property> <property> <name> yarn.nodemanager.pmem-check-enabled</name> <value>false</value> </property> <property> <name> yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property> </configuration>
9、vi hdfs-site.xml
<configuration> <property> <name>dfs.namenode.http-address</name> <!--这里是namenode的主机名--> <value>xmhl:50070</value> </property> <property><!--namenode持久存储名字空间及事务日志的本地文件系统路径--> <name>dfs.namenode.name.dir</name> <value>/usr/local/hadoop/dfs/name</value> </property> <property><!--DataNode存放块数据的本地文件系统路径--> <name>dfs.datanode.data.dir</name> <value>/usr/local/hadoop/dfs/data</value> </property> <property><!--数据需要备份的数量,不能大于集群的机器数量,默认为3--> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <!--这里是secondarynamenode的主机名--> <value>myhbase:50090</value> </property> </configuration>
10、vi workers
配置三台服务器的主机名
xmhl myhbase xmhl30
以上1-10步骤三台服务器都要进行配置
11、第一次启动需要格式化namenode
hdfs namenode -format
12、启动hadoop
先启动HDFS sbin/start-dfs.sh 再启动YARN sbin/start-yarn.sh 或者一起启动 sbin/start-all.sh
13、验证是否启动成功
使用jps命令验证,出现以下进程即为启动成功 27408 NameNode 28218 Jps 27643 SecondaryNameNode 28066 NodeManager 27803 ResourceManager 27512 DataNode
hadoop自带的UI界面: http://192.xx.xx.xx:50070 (HDFS管理界面) http://192.xx.xx.xx:8088 (MR管理界面)
相关文章推荐
- hadoop2.4.2集群搭建及hive与mysql集成文档记录
- hadoop集群环境搭建之完全分布式集群环境搭建(二)
- Hadoop2.7.5 HA集群搭建
- Hadoop集群搭建步骤
- docker1.7 搭建spark1.4.0-hadoop2.6集群
- 不得不收藏的大数据Hadoop教程:Hadoop集群搭建
- Hadoop 、Spark分布式集群搭建
- hadoop2.2.0集群搭建(三) zookeeper集群搭建
- hadoop集群搭建
- Hadoop集群搭建教程
- CentOS 6.5 搭建Hadoop 2.5.2集群
- hadoop2.4.1集群搭建
- 基于CENTOS6.5搭建Hadoop集群
- Hadoop 集群搭建及部分详解
- 搭建Hadoop分布式集群------SSH无密码验证配置
- 搭建hadoop2.2集群环境
- 大数据系列(1)——Hadoop集群坏境搭建配置
- hadoop集群搭建(hadoop)
- hadoop集群搭建
- 三台机器搭建Hadoop集群