您的位置:首页 > 运维架构 > Docker

Docker Swarm群集配置实战——第一战

2020-08-16 11:19 1196 查看

Docker Swarm 和 Docker Compose 一样,都是 Docker 官方容器编排项目,但不同的是,Docker Compose 是一个在单个服务器或主机上创建多个容器的工具,而 Docker Swarm 则可以在多个服务器或主机上创建容器集群服务,对于微服务的部署,显然 Docker Swarm 会更加适合。

从 Docker 1.12.0 版本开始,Docker Swarm 已经包含在 Docker 引擎中(docker swarm),并且已经内置了服务发现工具,我们就不需要像之前一样,再配置 Etcd 或者 Consul 来进行服务发现配置了。

Docker Swarm集群中有三个角色:manager(管理者);worker(实际工作者)以及service(服务)。

在上面的三个角色中,其本质上与我们公司的组织架构类似,有领导(manager),有搬砖的(worker),而领导下发给搬砖者的任务,就是Docker Swarm中的service(服务)。

需要注意的是,在一个Docker Swarm群集中,每台docker服务器的角色可以都是manager,但是,不可以都是worker,正所谓蛇无头不行,不可以群龙无首,并且,参与群集的所有主机名,千万不可以冲突。

一、环境准备

主机名 IP 服务
node01 192.168.171.151 docker、manager
node02 192.168.171.150 docker、worker
node03 192.168.171.152 docker、worker

二、配置主机node01
以下操作,将初始化一个Swarm群集,并指定node01的角色为manager

[root@node01 ~]# ssh-keygen               # 在node01上配置免密登录
[root@node01 ~]# tail -3 /etc/hosts
#三台主机之间要互相解析(Swarm群集也需要此配置)
192.168.171.151 node01
192.168.171.150 node02
192.168.171.152 node03
[root@node01 ~]# ssh-copy-id node02          # 将生成的秘钥发送到node02
[root@node01 ~]# ssh-copy-id node03
[root@node01 ~]# scp /etc/hosts node02:/etc/   #将hosts文件发送到node02
[root@node01 ~]# scp /etc/hosts node03:/etc/   #将hosts文件发送到node03
#初始化一个集群,并指定自己为manager
[root@node01 ~]# docker swarm init --advertise-addr 192.168.171.151

指定自己为manager初始化一个群组后,则会随着命令的执行成功而返回一系列的提示信息,这些提示信息给出的是,如果其他节点需要加入此节点,需要执行的命令,直接对其进行复制,然后,在需要加入此群集的主机上执行,即可成功加入群集。
返回的提示信息如下

三、配置node02及node03加入Swarm群集

#node02配置如下
[root@node02 ~]# docker swarm join --token SWMTKN-1-0s0r2bdyx0j9jmyrj0yn94vjzqs4gk21h6puszkfn8xoxoc2os-33amoli3h3zsk1k0982w93p07 192.168.171.151:2377
This node joined a swarm as a worker.
#node03配置如下
[root@node03 ~]# docker swarm join --token SWMTKN-1-0s0r2bdyx0j9jmyrj0yn94vjzqs4gk21h6puszkfn8xoxoc2os-33amoli3h3zsk1k0982w93p07 192.168.171.151:2377
This node joined a swarm as a worker.
[root@node01 ~]# docker node promote node02            # 将node02从worker升级为manager

node02及03便以worker的角色加入到了群集当中

若node02或者node03要脱离这个群集,那么需要以下配置(这里以node03为例)

[root@node03 ~]# docker swarm leave
[root@node01 ~]# docker node rm node03           # 在manager角色的服务器上移除node03
[root@node01 ~]# docker swarm leave -f
#若是最后一个manager上进行删除群集,则需要加“-f”选项
#最后一个删除后,这个群集也就不存在了

四、搭建registry私有仓库
在docker Swarm群集中,私有仓库并不影响其群集的正常运行,只是公司的生产环境多数都是自己的私有仓库,所以这里模拟一下。

#运行一个registry仓库容器
[root@node01 ~]# docker run -d --name registry --restart always -p 5000:5000 registry
[root@node01 ~]# vim /usr/lib/systemd/system/docker.service
ExecStart=/usr/bin/dockerd -H unix:// --insecure-registry 192.168.171.151:5000          #定位到改行,指定私有仓库IP及端口
[root@node01 ~]# systemctl daemon-reload         # 重新加载配置文件
[root@node01 ~]# systemctl restart docker         # 重启使之生效
#node02及node03也需要指定私有仓库的位置,所以执行下面的命令将更改后的docker配置文件复制过去
[root@node01 ~]# scp /usr/lib/systemd/system/docker.service node02:/usr/lib/systemd/system/
[root@node01 ~]# scp /usr/lib/systemd/system/docker.service node03:/usr/lib/systemd/system/
#将docker的配置文件复制过去以后,需要重启node02及03的docker服务
[root@node02 ~]# systemctl daemon-reload
[root@node02 ~]# systemctl restart docker

私有仓库创建完成,测试是否可以正常使用

#node01将nginx镜像上传到私有仓库
[root@node01 ~]# docker tag nginx:latest 192.168.171.151:5000/zyz:latest
[root@node01 ~]# docker push 192.168.171.151:5000/zyz:latest
#在node02上进行下载,测试是否可以正常下载
[root@node02 ~]# docker pull 192.168.171.151:5000/zyz:latest

在上面搭建私有仓库的过程,并没有实现数据的持久化,若需要基于数据持久化搭建私有仓库,可参考
五、node01部署docker Swarm群集的web UI界面

[root@node01 ~]# docker run -d -p 8000:8080 -e HOST=172.16.171.151 -e PORT=8080 -v /var/run/docker.sock:/var/run/docker.sock  --name visualizer  dockersamples/visualizer
#执行上述命令后,即可客户端访问其8000访问,可以看到群集内的节点信息
#若节点发生故障,则会立即检测到

访问node01的8000端口,即可看到以下界面,注意:该界面只能看,不能进行任何配置

docker Swarm的群集到这也算是基本完善了,接下来,开始展示该群集,究竟可以做些什么?也就是到了配置其service服务阶段。
六、docker Swarm群集的service服务配置
1、在node01(必须在manager角色的主机)上,发布一个任务,使用刚刚测试时上传的nginx镜像,运行六个容器

[root@node01 ~]# docker service create --replicas 6 --name zyz -p 80 192.168.171.151:5000/zyz:latest
#“--replicas”选项就是用来指定要运行的容器数量

创建完成返回信息如下

当运行六个容器副本后,可以查看群集的web UI界面,显示如下

注意:node03并没有下载相应的镜像,但是也会运行nginx服务,那么就可以得出一个结论:若docker主机没有指定的镜像,那么它将会自动去下载相应的镜像
可以看到,在进行上述配置后,群集中的三台服务器基于nginx镜像运行了两个容器,共六个

[root@node01 ~]# docker service ls
ID                  NAME                MODE                REPLICAS            IMAGE                             PORTS
qjqr2to6e4m1        zyz                 replicated          6/6                 192.168.171.151:5000/zyz:latest   *:30000->80/tcp

七、实现docker容器的扩容及缩容
何为扩容?何为缩容?无非就是在容器无法承担当前负载压力的情况下,扩增几个一样的容器,缩容呢?也就是在大量容器资源闲置的情况下,减少几个一样的容器而已。
1、下面是针对上述创建的6个nginx服务的容器的扩容及缩容
1)容器的扩容

[root@node01 ~]# docker service scale zyz=9
# 将运行的nginx容器扩容到9个

扩容后,其web UI界面显示如下

2)容器的缩容

#将9个nginx服务的容器缩减到3个
[root@node01 ~]# docker service scale zyz=3

缩容后,其UI界面显示如下

2、设置某个docker服务器不运行容器
在上述的配置中,若运行指定数量的容器,那么将是群集中的所有docker主机进行轮询的方式运行,直到运行够指定的容器数量,那么,如果不想让node01这个manager角色运行容器呢?(公司领导也不会去一线搬砖的嘛),可以进行以下配置:

[root@node01 ~]# docker node update --availability drain node01
node01
#设置主机node01以后不运行容器,但已经运行的容器并不会停止
# “--availability”选项后面共有三个选项可配置,如下
# “active”:工作;“pause”:暂时不工作;“drain”:永久性的不工作

当node01不在运行容器后,他之前所运行的容器并不会就此停止,会以轮询的方式运行到其他群集中的服务器上

附加——docker Swarm群集常用命令

[root@docker01 ~]# docker node ls    #查看群集的信息(只可以在manager角色的主机上查看)
[root@docker01 ~]# docker swarm join-token worker      #如果后期需要加入worker端,可以执行此命令查看令牌(也就是加入时需要执行的命令)
[root@docker01 ~]# docker swarm join-token manager         #同上,若要加入manager端,则可以执行这条命令查看令牌。
[root@docker01 ~]# docker service scale web05=6    #容器的动态扩容及缩容
[root@docker01 ~]# docker service ps web01       #查看创建的容器运行在哪些节点
[root@docker01 ~]# docker service ls        #查看创建的服务
#将docker03脱离这个群集
[root@docker03 ~]# docker swarm leave        #docker03脱离这个群集
[root@docker01 ~]# docker node rm docker03         #然后在manager角色的服务器上移除docker03
[root@docker01 ~]# docker node promote docker02    #将docker02从worker升级为manager。
#升级后docker02状态会为Reachable
[root@docker01 ~]# docker node demote docker02    #将docker02从manager角色降级为worker
[root@docker01 ~]# docker node update --availability drain docker01
#设置主机docker01以后不运行容器,但已经运行的容器并不会停止
[root@docker01 ~]# docker node update --label-add mem=max docker03
#更改docker03主机的标签为mem=max
[root@docker01 ~]# docker service update --replicas 8 --image 192.168.20.6:5000/lvjianzhao:v2.0 --container-label-add 'node.labels.mem == max' lvjianzhao05
#将服务升级为8个容器,并且指定在mem=max标签的主机上运行

docker Swarm总结

  • 参与群集的主机名一定不能冲突,并且可以互相解析对方的主机名;
  • 集群内的所有节点可以都是manager角色,但是不可以都是worker角色;
  • 当指定运行的镜像时,如果群集中的节点本地没有该镜像,那么它将会自动下载对应的镜像;
  • 当群集正常工作时,若一个运行着容器的docker服务器发生宕机,那么,其所运行的所有容器,都将转移到其他正常运行的节点之上,而且,就算发生宕机的服务器恢复正常运行,也不会再接管之前运行的容器;
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: