您的位置:首页 > 运维架构 > Linux

记一次 Centos7.4 手动搭建Zookeeper集群

2019-01-16 09:04 281 查看
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/llwy1428/article/details/85937442

QQ交流群:64655993   希望能对您有所帮助!!!

说明:

1、本示例仅供学习,所以使用root用户搭建。

2、生产环境中,为了数据安全要严格控制权限,为不同的组件创建不同的用户。

一、环境说明

系统:Centos 7.4 x64  ( 3 台虚拟机)

Zookeeper版本:zookeeper-3.4.5-cdh5.16.1.tar.gz

下载地址:

https://www.cloudera.com/documentation/enterprise/release-notes/topics/cdh_vd_cdh_package_tarball_516.html

JDK 版本:1.8

安装方式:https://blog.csdn.net/llwy1428/article/details/85232267

二、搭建步骤

说明:以下安装过程配置了三个主机名分别是:   node3.cn、node4.cn、node5.cn

(node1.cn和node2.cn是为后期搭建Hadoop集群预留的)

1、在三个节点上安装基本工具

[root@node3 ~]# yum install -y vim lrzsz

[root@node4 ~]# yum install -y vim lrzsz

[root@node5 ~]# yum install -y vim lrzsz

2、配置hosts文件

[root@node3 ~]# vim /etc/hosts

增加如下信息

[code]192.168.11.93 node3.cn
192.168.11.94 node4.cn
192.168.11.95 node5.cn

说明:

(1)192.168.11.XX 是我自己虚拟机的IP,配置的时候需注意。

(2)三个节点均要配置hosts文件

3、创建目录

[root@node3 ~]# mkdir /opt/cluster

[root@node4 ~]# mkdir /opt/cluster

[root@node5 ~]# mkdir /opt/cluster

4、把下载好的zookeeper-3.4.5-cdh5.16.1.tar.gz上传至ndoe3的  /opt/cluster 目录下,并解压

[root@node3 cluster]# tar zxvf zookeeper-3.4.5-cdh5.16.1.tar.gz

查看

[root@node3 ~]# ll /opt/cluster/

5、创建文件夹

[root@node3 ~]# mkdir /opt/cluster/zookeeper-3.4.5-cdh5.16.1/data

[root@node3 ~]# mkdir /opt/cluster/zookeeper-3.4.5-cdh5.16.1/data/zk

[root@node3 ~]# mkdir /opt/cluster/zookeeper-3.4.5-cdh5.16.1/data/log

6、编辑文件  zoo.cfg

进入目录:/opt/cluster/zookeeper-3.4.5-cdh5.16.1/conf

[root@node3 ~]# cd /opt/cluster/zookeeper-3.4.5-cdh5.16.1/conf

复制文件

[root@node3 conf]# cp zoo_sample.cfg zoo.cfg

编辑文件zoo.cfg

[root@node3 conf]# vim zoo.cfg

增加如下内容

[code]dataDir=/opt/cluster/zookeeper-3.4.5-cdh5.16.1/data/zk
dataLogDir=/opt/cluster/zookeeper-3.4.5-cdh5.16.1/data/log
server.1=node3.cn:2888:3888
server.2=node4.cn:2888:3888
server.3=node5.cn:2888:3888

7、把node3上配置好的整个工具包分发给node4和node5节点

[root@node3 ~]# scp -r /opt/cluster/zookeeper-3.4.5-cdh5.16.1 node4.cn:/opt/cluster/

[root@node3 ~]# scp -r /opt/cluster/zookeeper-3.4.5-cdh5.16.1 node5.cn:/opt/cluster/

注意:发送过程中会要求输入目标节点的系统密码。

8、编辑myid文件

在node3上的myid中写入    1

[root@node3 ~]# vim /opt/cluster/zookeeper-3.4.5-cdh5.16.1/data/zk/myid

在node4上的myid中写入    2

[root@node4 ~]# vim /opt/cluster/zookeeper-3.4.5-cdh5.16.1/data/zk/myid

在node5上的myid中写入    3

[root@node5 ~]# vim /opt/cluster/zookeeper-3.4.5-cdh5.16.1/data/zk/myid

编辑完毕后保存并退出    :wq

9、三个节点均启动zkServer服务

[root@node3 ~]# /opt/cluster/zookeeper-3.4.5-cdh5.16.1/bin/zkServer.sh start

[root@node4 ~]# /opt/cluster/zookeeper-3.4.5-cdh5.16.1/bin/zkServer.sh start

[root@node5~]# /opt/cluster/zookeeper-3.4.5-cdh5.16.1/bin/zkServer.sh start

10、查看状态

[root@node3 ~]# /opt/cluster/zookeeper-3.4.5-cdh5.16.1/bin/zkServer.sh status

[root@node4 ~]# /opt/cluster/zookeeper-3.4.5-cdh5.16.1/bin/zkServer.sh status

[root@node5 ~]# /opt/cluster/zookeeper-3.4.5-cdh5.16.1/bin/zkServer.sh status

由上图可看到node4的状态为 leader

说明:关闭zkServer服务为:

[root@nodeX ~]#  /opt/cluster/zookeeper-3.4.5-cdh5.16.1/bin/zkServer.sh stop

 

至此,三节点的zookeeper集群配置完毕!

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: