您的位置:首页 > 大数据 > Hadoop

hadoop伪分布式安装,实际操作可以收藏,动手搭建Hadoop(3)

2019-06-11 20:59 483 查看

01 ssh免密安装

02 jdk安装

回顾之前,我们已经把ssh面密钥和jdk都给安装上去了,接下来做hadoop的伪分布式的安装。什么是伪分布式安装呢?众所周知,hadoop的集群有namenode(主备)和datanode组成的。实际应该让这些节点都分布在不同的服务器,伪分布式就是将这些节点都放在一台服务器上面,这个是用来做测试。后面我们会介绍全分布式的安装,学习就要循序渐进。

准备

四台服务器分布

node01:主namenode

node02:datanode

node03:datanode

node04:从namenode

这次动手,我们只会对node01 进行操作,将四个服务都安装在node01,后面的文章会介绍如何对node02-node04进行操作。

下载hadoop

先上地址

https://hadoop.apache.org/

 

 

https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-3.1.2/hadoop-3.1.2.tar.gz

 

 

解压发送到服务器目录,我是放在/usr下面的大家自己随意处理目录,能够记住就好了。

依旧是xftp传文件到虚拟机上的服务器。

 

 

配置文件

先修改hadoop-env.sh 文件

我们要定义jdk安装的位置,并且告诉hadoop namenode是谁在使用?datanode是谁在使用?从节点的namenode是谁在使用?

/usr/hadoop-3.1.2/etc/hadoop

vi hadoop-env.sh

export JAVA_HOME=/usr/java/jdk-12.0.1

export HDFS_NAMENODE_USER=root

export HDFS_DATANODE_USER=root

export HDFS_SECONDARYNAMENODE_USER=root

core-site.xml 文件修改

目录不变还是在/usr/hadoop-3.1.2/etc/hadoop 下面,这里需要配置主节点的信息以及对应的IP地址和端口。由于主节点我们定义的是node01(192.168.146.101),对于hadoop3.0来说默认的端口号是9820。同时由于主节点需要存放datanode的原数据的信息,这里需要我们指定一个临时目录。当hadoop启动的时候会创建这个目录

vi core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://node01:9820</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/var/hadoop/peseudo</value>

</property>

</configuration>

hdfs-site.xml 文件修改

这里需要配置主从节点,由于我们采用的伪分布式,所以主从节点都在node01上面。对于第一个property 的value填写1 ,说明有一个从节点。第二个property填写的是具体的从节点的地址和端口号。这里因为node01 又当主节点同时也是从节点,所以配置到node01上面。

vi hdfs-site.xml

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.namenode.secondary.http.address</name>

<value>node01:9868</value>

</property>

</configuration>

上面这些配置的具体说明可以在hadoop安装包中的说明文档中找到。如下:

 

 

datanode文件配置

主从节点配置完成以后,我们对datanode进行配置。对于hadoop3.0来说datanode的文件是workers,我们需要配置他。这里需要告诉datanode需要配置到那个namenode之上。由于,我们现在用的是伪分布式,所以都配置到node01上面就好了。(修改文件的时候把原来文件中的localhost删除)

cd /usr/hadoop-3.1.2/etc/hadoop

vi workers

node01

启动Hadoop集群

首先格式化文件系统

/usr/hadoop-3.1.2

./bin/hdfs namenode -format

检查原数据是否创建成功

/var/hadoop/peseudo/dfs/name/current

cat VERSION

 

 

这里注意会创建clusterID,这个是用来确定这个集群的唯一标识。

启动namenode和datanode进程

cd /usr/hadoop-3.1.2

./sbin/start-dfs.sh

启动完毕以后可以看看角色进程

jps

 

 

可以看到namenode,datanode,secondarynamenode都跑起来了。我们这里把所有的角色进程都配置到了node01上面所以现在启动node01上的进程就把其他的角色进程都启动了。

再看看端口号

ss -nal

 

 

再来看看控制台的信息

输入http:192.168.146:9870

备注:如果这里无法访问,多半是服务器的防火墙阻拦了。

可以通过 service iptables stop 暂时关闭防火墙

强力推荐阅读文章

大数据工程师必须了解的七大概念

云计算和大数据未来五大趋势

如何快速建立自己的大数据知识体系

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: