您的位置:首页 > 运维架构 > Nginx

centos 7 LVS+keepalived实现nginx的高可用以及负载均衡

2017-04-06 17:13 861 查看
一、准备工作:关闭防火墙,selinux以免对实验结果造成影响,准备虚机,设置IP地址、主机名

hostname:Nginx01

IP:192.168.1.87

Role:Nginx Server

hostname:Nginx02

IP: 192.168.1.88

Role:Nginx Server

hostname:LVS01

IP: 192.168.1.89

Role:LVS+Keepalived

hostname:LVS02

IP: 192.168.1.90

Role:LVS+Keepalived

VIP:192.168.1.253
二、安装相关软件、以及配置文件修改:LVS、keepalived、nginx 该文档软件安装全部使用yum
1、nginx01 以及nginx02 都执行
yum install -y nginx

#安装以后启动nginx

systemctl start nginx.service
修改测试页面内容便于区分,根据主机名修改index.html文件

vim /usr/share/nginx/html/index.html



修改完访问页面如下:




nginx两台服务器准备完成,在LVS01、LVS02上安装LVS以及keepalived
yum install -y ipvsadm
#安装keepalived依赖的软件
yum install -y gcc openssl openssl-devel
yum install -y keepalived


安装完成以后,LVS01上先清空keepalived的配置文件
:>/etc/keepalived/keepalived.conf
复制下面内如到 /etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs {
router_id lvs_clu_1
}
virrp_sync_group Prox {
group {
mail
}
}
vrrp_instance mail {
state MASTER
interface eno16777736
lvs_sync_daemon_interface eno16777736
virtual_router_id 50
priority 80
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.253
}
}
virtual_server 192.168.1.253 80 {
delay_loop 6
lb_algo wrr
lb_kind DR
persistence_timeout 0
protocol TCP
nat_mask 255.255.255.0
real_server 192.168.1.87 80 {
weight 1 
TCP_CHECK {
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
real_server 192.168.1.88 80 {
weight 1  
TCP_CHECK {
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
}
在LVS02上也先清空keepalived的配置文件
:>/etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs {
router_id lvs_clu_1
}
virrp_sync_group Prox {
group {
mail
}
}
vrrp_instance mail {
state BACKUP
interface ens33
lvs_sync_daemon_interface ens33
virtual_router_id 50
priority 60
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.253
}
}
virtual_server 192.168.1.253 80 {
delay_loop 6
lb_algo wrr
lb_kind DR
persistence_timeout 0
protocol TCP
real_server 192.168.1.87 80 {
weight 1 
TCP_CHECK {
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
real_server 192.168.1.88 80 {
weight 1 
TCP_CHECK {
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
}
配置完成以后在两台机器上启动 keepalived
注意 interface 需要修改为自己电脑的网卡

systemctl start keepalived
三、测试结果
1、正常情况下




2、当nginx01宕机以后(在nginx01上执行命令),结果如图:

systemctl stop nginx.service




nginx01启动以后,在nginx02上停止nginx,效果雷同,不在贴图。
3、当LVS01上keepalived死掉以后,LVS02上的keepalived会启动配置VIP到自己机器上
systemctl stop keepalived










结果显示正常,LVS01上keepalived启动以后会把VIP配置到自己的网卡。

四、问题总结:
关于keepalived配置文件中相关参数说明
persistence_timeout 0 #保持客户端的请求在这个时间段内全部发到同一个真实服务器,单位秒,动态
网站此参数很重要。
router_id LVS_DEVEL    # 设置lvs的id,在一个网络内应该是唯一的
vrrp_instance VI_1 {    #vrrp实例定义部分
state MASTER     #设置lvs的状态,MASTER和BACKUP两种,必须大写
interface eno16777736    #设置对外服务的接口
lvs_sync_daemon_inteface     #负载均衡器之间的监控接口,类似于 HA HeartBeat的心跳线。但它的机制优于 Heartbeat,因为它没有“裂脑”这个问题,它是以优先级这个机制来规避这个麻烦的。在DR 模式中,lvs_sync_daemon_inteface 与服务接口 interface 使用同一个网络接口。
virtual_router_id 60  #设置虚拟路由标示,这个标示是一个数字,同一个vrrp实例使用唯一标示
priority 80    #定义优先级,数字越大优先级越高,在一个vrrp——instance下,master的优先级必须大于backup
advert_int 1    #设定master与backup负载均衡器之间同步检查的时间间隔,单位是秒
authentication {  #设置验证类型和密码
auth_type PASS  #主要有PASS和AH两种
auth_pass 1111  #验证密码,同一个vrrp_instance下MASTER和BACKUP密码必须相同
}
virtual_ipaddress {  #设置虚拟ip地址,可以设置多个,每行一个
192.168.1.253
}
}

virtual_server 192.168.1.253 80 {  #设置虚拟服务器,需要指定虚拟ip和服务端口
delay_loop 3    #健康检查时间间隔
lb_algo rr     #负载均衡调度算法
lb_kind DR    #负载均衡转发规则
persistence_timeout 50    #设置会话保持时间,对动态网页非常有用
protocol TCP    #指定转发协议类型,有TCP和UDP两种

real_server 192.168.1.87 80 {  #配置服务器节点1,需要指定real server的真实IP地址和端口
weight 1    #设置权重,数字越大权重越高
TCP_CHECK {     #realserver的状态监测设置部分单位秒
connect_timeout 3    #超时时间
nb_get_retry 3      #重试次数
delay_before_retry 3    #重试间隔
connect_port 80      #监测端口
}
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  nginx LVS keepalived
相关文章推荐