lvs+keepalive实现双主模式(采用DR),同时实现TCP和UDP检测实现非web端的负载均衡,同时实现跨网段的通讯
因业务需求,需要把lvs备机也使用上,故! 使用双主,相互是主的同时也相互是备机。本人用nat测试发现RS无法实现负载均衡,故采用DR模式来实现非web端的负载均衡
lvs1: DIP 10.60.196.183
VIP 10.60.196.185
lvs2:DIP 10.60.196.184
VIP 10.60.196.186
DR1:10.60.196.181
DR2:10.60.196.182
--------------------------------------------------------
我这里TCP和UDP同时使用
LVS:需要开启IP转发
vim /etc/sysctl.conf
keepalive配置:
! Configuration File for keepalived
global_defs {
notification_email {
root@localhost
}
notification_email_from admin@localhost
smtp_server 127.0.0.1
smtp_connect_timeout 30
router_id LVS_DEVEL
}
vrrp_instance VI_1 {
state BACKUP #另外一台keepalive这里换成MASTER
interface eth0
virtual_router_id 51
priority 98 #这里100
advert_int 1
authentication {
auth_type PASS
auth_pass 11112222
}
virtual_ipaddress {
10.60.196.186/32 label eth0:0
}
}
vrrp_instance VI_2 {
state MASTER #另一台BUCKUP
interface eth0
virtual_router_id 150
priority 100 # 这里99
advert_int 1
authentication {
auth_type PASS
auth_pass 11112222
}
virtual_ipaddress {
10.60.196.185/32 label eth0:1
}
}
virtual_server 10.60.196.186 33001 {
delay_loop 6
lb_algo rr
lb_kind DR
protocol TCP
persistence_timeout 0
real_server 10.60.196.181 33001 {
weight 1
TCP_CHECK {
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
real_server 10.60.196.182 33001 {
weight 1
TCP_CHECK {
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
}
virtual_server 10.60.196.186 33001 {
delay_loop 6
lb_algo rr
lb_kind DR
protocol UDP
persistence_timeout 0
real_server 10.60.196.181 33001 {
weight 1
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
real_server 10.60.196.182 33001 {
weight 1
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
virtual_server 10.60.196.185 33001 {
delay_loop 6
lb_algo rr
lb_kind DR
protocol TCP
persistence_timeout 0
real_server 10.60.196.181 33001 {
weight 1
TCP_CHECK {
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
real_server 10.60.196.182 33001 {
weight 1
TCP_CHECK {
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
}
virtual_server 10.60.196.185 33001 {
delay_loop 6
lb_algo rr
lb_kind DR
protocol UDP
persistence_timeout 0
real_server 10.60.196.181 33001 {
weight 1
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
real_server 10.60.196.182 33001 {
weight 1
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
配置好以后添加路由
route add -host 10.60.196.185 dev eth0:1
route add -host 10.60.196.186 dev eth0:0
rs:需要添加路由同时绑定VIP
RS1和RS2配置相同
ifconfig eth0:0 10.60.196.186 netmask 255.255.255.0
ifconfig eth0:1 10.60.196.185 netmask 255.255.255.0
route add -host 10.60.196.185 dev eth0:1
route add -host 10.60.196.186 dev eth0:0
如果还需要外网可以通过另外搭建搭建两台机器做iptables转发 上面需要有一个公网IP和一个内网IP,通过iptables把外网请求全部转发到VIP上面,一台做一个VIP转发 (iptables这里就不写了),这样就可以实现跨网段的通讯了! 不同网段原因一样
- lvs+keepalive实现主从效果,以及RS健康监测和tcp,udp实现非web的负载均衡(DR模式)
- lvs DR模式 +keepalived 实现directory 高可用、httpd服务负载均衡集群
- LVS基于DR模型实现负载均衡集群实验
- LVS-DR+keepalived(——实现WEB站负载均衡和高可用)
- 使用LVS+DR搭建集群实现负载均衡
- LVS+Keepalived DR模式实现web负载均衡高可用
- linux集群系列(一):LVS+Keepalived以DR模式实现负载均衡
- QQ使用了什么通讯协议?为什么要这样做?为什么采用 UDP 协议,而不采用 TCP 协议实现?
- Keepalived + LVS(DR) 虚拟服务器实现高并发负载均衡集群
- Lvs+keepalived实现负载均衡、故障剔除(DR模式)
- keepalived+lvs-dr实现负载均衡
- 用 LVS (DR) 实现负载均衡 Apache 和 FTP 两个服务
- lvs DR模式 +keepalived 实现directory 高可用、httpd服务负载均衡集群
- Lvs+keepalived 实现负载均衡、故障剔除(DR模式)
- LVS-DR实现基于LAMP的负载均衡
- QQ使用了什么通讯协议?为什么要这样做?为什么采用 UDP 协议,而不采用 TCP 协议实现?
- 基于keepalive+LVS的高可用集群来实现web服务负载均衡集群的架构
- lvs/dr+keepalived实现Web负载均衡Dr高可用
- CentOS6.2下搭建LVS(DR)+Keepalived实现高性能高可用负载均衡服务
- 实例详解LB基于LVS架构之NAT、DR模型架构实现web服务负载均衡