您的位置:首页 > 其它

RabbitMQ学习之集群部署

2014-11-13 15:04 423 查看
生产环境:

CentOS 6.3 x86_64

服务器主机名与IP列表:

mq136 172.28.2.136

mq137 172.28.2.137

mq164 172.28.2.164

mq165 172.28.2.165

在各节点服务器上作好hosts解析

cat >>/etc/hosts/<<EOF

mq136 172.28.2.136

mq137 172.28.2.137

mq164 172.28.2.164

mq165 172.28.2.165

EOF

一、简介

RabbitMQ是流行的开源消息队列系统,用erlang语言开发。Erlang的分布式通讯安全策略,可以归结为 All or None。。RabbitMQ是AMQP(高级消息队列协议)的标准实现。RabbitMQ的结构图如下:





几个概念说明:

Broker:简单来说就是消息队列服务器实体。

Exchange:消息交换机,它指定消息按什么规则,路由到哪个队列。

Queue:消息队列载体,每个消息都会被投入到一个或多个队列。

Binding:绑定,它的作用就是把exchange和queue按照路由规则绑定起来。

Routing Key:路由关键字,exchange根据这个关键字进行消息投递。

vhost:虚拟主机,一个broker里可以开设多个vhost,用作不同用户的权限分离。

producer:消息生产者,就是投递消息的程序。

consumer:消息消费者,就是接受消息的程序。

channel:消息通道,在客户端的每个连接里,可建立多个channel,每个channel代表一个会话任务。

消息队列的使用过程大概如下:

(1)客户端连接到消息队列服务器,打开一个channel。

(2)客户端声明一个exchange,并设置相关属性。

(3)客户端声明一个queue,并设置相关属性。

(4)客户端使用routing key,在exchange和queue之间建立好绑定关系。

(5)客户端投递消息到exchange。

exchange接收到消息后,就根据消息的key和已经设置的binding,进行消息路由,将消息投递到一个或多个队列里。

exchange也有几个类型,完全根据key进行投递的叫做Direct交换机,例如,绑定时设置了routing key为”abc”,那么客户端提交的消息,只有设置了key为”abc”的才会投递到队列。对key进行模式匹配后进行投递的叫做Topic交换机,符号”#”匹配一个或多个词,符号”*”匹配正好一个词。例如”abc.#”匹配”abc.def.ghi”,”abc.*”只匹配”abc.def”。还有一种不需要key的,叫做Fanout交换机,它采取广播模式,一个消息进来时,投递到与该交换机绑定的所有队列。

RabbitMQ支持消息的持久化,也就是数据写在磁盘上,为了数据安全考虑,我想大多数用户都会选择持久化。消息队列持久化包括3个部分:

(1)exchange持久化,在声明时指定durable => 1

(2)queue持久化,在声明时指定durable => 1

(3)消息持久化,在投递时指定delivery_mode => 2(1是非持久化)

如果exchange和queue都是持久化的,那么它们之间的binding也是持久化的。如果exchange和queue两者之间有一个持久化,一个非持久化,就不允许建立绑定。

下面我们再了解下消息队列RabbitMQ集群,由于RabbitMQ是用erlang开发的,RabbitMQ 完全依赖 Erlang 的Cluster,而Erlang集群非常方便,因此配置RabbitMQ集群变得非常简单。

RabbitMQ的集群节点包括内存节点、磁盘节点。顾名思义内存节点就是将所有数据放在内存,磁盘节点将数据放在磁盘。不过,如前文所述,如果在投递消息时,打开了消息的持久化,那么即使是内存节点,数据还是安全的放在磁盘。

良好的设计架构可以如下:在一个集群里,有3台以上机器,其中1台使用磁盘模式,其它使用内存模式。其它几台为内存模式的节点,无疑速度更快,因此客户端(consumer、producer)连接访问它们。而磁盘模式的节点,由于磁盘IO相对较慢,因此仅作数据备份使用。

二、各节点安装rabbitmq

安装非常简单,只需几步搞定:

1. 安装epel源

rpm -ivh http://download.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-7.noarch.rpm
wget -O /etc/yum.repos.d/epel-erlang.repo http://repos.fedorapeople.org/repos/peter/erlang/epel-erlang.repo
2. 安装erlang

yum install erlang xmlto git -y

rpm --import http://www.rabbitmq.com/rabbitmq-signing-key-public.asc
3. 安装rabbitmq

可以选择用yum安装,也可以选择下载rpm包安装,也可以用源码编译安装!

下载地址: http://www.rabbitmq.com/download.html

本文选择rpm包安装:

wget http://www.rabbitmq.com/releases/rabbitmq-server/v2.8.6/rabbitmq-server-2.8.6.noarch.rpm
rpm -ivh rabbitmq-server-2.8.6.noarch.rpm

4. 启动各节点rabbitmq,并验证启动情况

[root@mq136 ~]# rabbitmq-server --detached &

[root@mq136 ~]# ps aux |grep rabbitmq

rabbitmq 1394 0.0 0.0 10828 540 ? S Oct08 0:11 /usr/lib64/erlang/erts-5.8.5/bin/epmd -daemon

root 2483 0.0 0.0 103244 836 pts/1 S+ 17:40 0:00 grep rabbitmq

rabbitmq 5657 6.3 1.9 2224044 157200 ? Sl Oct08 959:17 /usr/lib64/erlang/erts-5.8.5/bin/beam.smp -W w -K true -A30 -P 1048576 -- -root /usr/lib64/erlang -progname erl -- -home /var/lib/rabbitmq --
-noshell -noinput -sname rabbit@mq136 -boot /var/lib/rabbitmq/mnesia/rabbit@mq136-plugins-expand/rabbit -kernel inet_default_connect_options [{nodelay,true}] -sasl errlog_type error -sasl sasl_error_logger false -rabbit error_logger {file,"/var/log/rabbitmq/rabbit@mq136.log"}
-rabbit sasl_error_logger {file,"/var/log/rabbitmq/rabbit@mq136-sasl.log"} -os_mon start_cpu_sup false -os_mon start_disksup false -os_mon start_memsup false -mnesia dir"/var/lib/rabbitmq/mnesia/rabbit@mq136" -noshell -noinput

rabbitmq 5698 0.0 0.0 10788 520 ? Ss Oct08 0:00 inet_gethost 4

rabbitmq 5699 0.0 0.0 12892 692 ? S Oct08 0:00 inet_gethost 4

rabbitmq 11446 0.0 0.0 12892 680 ? S Oct13 0:00 inet_gethost 4

[root@mq136 ~]# lsof -i:5672

COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME

beam.smp 5657 rabbitmq 18u IPv4 5879364 0t0 TCP *:amqp (LISTEN)

三、集群配置

集群环境说明:

mq136作为磁盘节点,其它所有节点都作为内存节点!

1. 在各节点创建加入集群脚本

mq136:

cat >>/home/zjqui/scripts/cluster.sh<<EOF

rabbitmqctl stop_app

rabbitmqctl reset

rabbitmqctl cluster

rabbitmqctl start_app

EOF

mq137:

cat >>/home/zjqui/scripts/cluster.sh<<EOF

rabbitmqctl stop_app

rabbitmqctl reset

rabbitmqctl cluster rabbit@mq136

rabbitmqctl start_app

EOF

mq164:

cat >>/home/zjqui/scripts/cluster.sh<<EOF

rabbitmqctl stop_app

rabbitmqctl reset

rabbitmqctl cluster rabbit@mq136

rabbitmqctl start_app

EOF

mq165:

cat >>/home/zjqui/scripts/cluster.sh<<EOF

rabbitmqctl stop_app

rabbitmqctl reset

rabbitmqctl cluster rabbit@mq136

rabbitmqctl start_app

EOF

2. 各节点加入集群环境

[root@mq136 ~]# chmod +x /home/zjqui/scripts/cluster.sh

启动脚本顺序:先运行mq136节点集群脚本,然后再运行其它节点集群脚本:

[root@mq136 ~]# /home/zjqui/scripts/cluster.sh

各节点运行成功后,查看集群整体状态:

[root@mq136 ~]# rabbitmqctl cluster_status

Cluster status of node rabbit@mq136 ...

[{nodes,[{disc,[rabbit@mq136]},

{ram,[rabbit@mq165,rabbit@mq164,rabbit@mq137]}]},

{running_nodes,[rabbit@mq164,rabbit@mq165,rabbit@mq137,rabbit@mq136]}]

...done.

可以看到mq136作为disc节点,其它节点是ram节点!集群简单配置到此完成!!

部署nova使用高可用队列主要两个步骤:


1. 配置RabbitMQ集群

确保所有RabbitMQ服务不在运行,之后同步集群中所有RabbitMQ服务器上的cookie:

sudo service rabbitmq-server stop

scp /var/lib/rabbitmq/.erlang.cookie \

root@rabbit2:/var/lib/rabbitmq/.erlang.cookie

sudo service rabbitmq-server start

建立集群

root@rabbit2: rabbitmqctl stop_app

root@rabbit2: rabbitmqctl cluster rabbit@rabbit1

root@rabbit2: rabbitmqctl start_app

建立disc集群

root@rabbit2: rabbitmqctl stop_app

root@rabbit2: rabbitmqctl cluster rabbit@rabbit1 rabbit@rabbit2

root@rabbit2: rabbitmqctl start_app

完成后可以在集群中任意一台RabbitMQ上看到集群状态

$ sudo rabbitmqctl cluster_status

Cluster status of node rabbit@rabbit1 ...

[{nodes,[{disc,[rabbit@rabbit1]},{ram,[rabbit@rabbit2]}]},

{running_nodes,[rabbit@rabbit2,rabbit@rabbit1]}]

...done.


2. 配置nova

编辑nova.conf

rabbit_hosts = rabbit1:5672,rabbit2:5672

rabbit_host = rabbit1

rabbit_ha_queues = true

如果配置了rabbit_hosts,那么nova将会按照顺序连接一个RabbitMQ服务,如果正在使用的MQ服务断开则依次尝试连接下一个,由于所有MQ的消息都是同步的,所以消息不会丢失。

如果配置了rabbit_host,那么需要在集群前架设haproxy,保证集群VIP服务正常。

之后重启nova的所有服务即可。

可以通过以下命令查看队列是否为高可用

sudo rabbitmqctl list_queues name arguments

Listing queues ...

compute [{"x-ha-policy","all"}]

compute.u2 [{"x-ha-policy","all"}]

compute_fanout_e35fae767bf645afa37649ece0fbc20f [{"x-ha-policy","all"}]

conductor [{"x-ha-policy","all"}]

conductor.u2 [{"x-ha-policy","all"}]

conductor_fanout_e36e99cf03214e45be95aed2028b998a [{"x-ha-policy","all"}]

glance_notifications.error [{"x-ha-policy","all"}]

glance_notifications.info [{"x-ha-policy","all"}]

glance_notifications.warn [{"x-ha-policy","all"}]

network [{"x-ha-policy","all"}]

network.u2 [{"x-ha-policy","all"}]

network_fanout_06a0feca2c2f4252bf6c60051f5e162d [{"x-ha-policy","all"}]

notifications.error [{"x-ha-policy","all"}]

notifications.info [{"x-ha-policy","all"}]

reply_bffe093751b1422e9a23464086d78c26 [{"x-ha-policy","all"}]

scheduler [{"x-ha-policy","all"}]

scheduler.u2 [{"x-ha-policy","all"}]

scheduler_fanout_afab782a2ade4b12848262b4259f1cb1 [{"x-ha-policy","all"}]

...done.


测试结果

按照如上配置方法,测试havana的nova,确认在某MQ停服的情况下nova的反应。


Case1:nova-api使用rabbit1,其他nova-X服务使用rabbit2

此case意在验证rabbitmq集群的同步功能,是否会对nova造成影响。

配置RabbitMQ集群,并且nova.conf中开启rabbit_ha_queues = true。nova-api使用的rabbit_host=rabbit1, 其他nova-X使用的rabbit_host=rabbit2,注意这里没有配置rabbit_hosts。之后正常使用nova服务,所有操作都正常执行。说明MQ的镜像模式可以支持nova的消息通信。


Case2:配置nova使用rabbit_hosts

此case意在观察MQ集群出现问题时nova的反应。同样配置RabbitMQ集群,配置nova.conf的rabbit_hosts=rabbit1:5672, rabbit2:5672。正常开启nova服务,观察到nova-X服务首先连接rabbit1服务,当关闭rabbit1服务后,连接断开,再次尝试连接rabbit1,失败后开始尝试连接rabbit2,之后保持连接rabbit2并正常服务。说明nova可以自行判断MQ服务的状态,并且自动重连,可以在不部署Haproxy的情况下使用高可用MQ。


总结

havana nova对高可用RabbitMQ的支持比较好,基本可以满足高可用需求,对于RabbitMQ的集群既可以部署haproxy,也可以直接配置rabbit_hosts,让nova自动重连。从方便运维的角度出发,减少不必要的依赖,减少出问题的可能,所以建议直接使用nova的rabbit_hosts。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: