用haproxy结合keepalived实现基于LNMP的负载均衡和高可用
2017-11-11 16:06
1061 查看
今天我们讲haproxy结合keepalived实现LNMP的负载均衡和高可用,现在的公司大部分都基于haproxy实现负载均衡。下面以一个事例去给大家详细讲解如何去实现:
一、用haproxy结合keepalived实现基于lnmp的负载均衡和高可用服务,要求: (1)实现动静分离,图片和css,js都分离到专门的静态服务器上 (2)只允许172.17网段用户访问 (3)对于动态请求,要求实现基于cookie的会话保持整体架构如下:
1、实验前需要关闭防火墙和selinux,以及同步时间。
关闭防火墙:iptables -F
关闭selinux:setenforce 0
同步时间:ntpdate 172.17.0.1(局域网的网关)
2、配置主服务器
(1)配置主keepalived
vim /etc/keepalived/keepalived.conf(基于NAT模式)
global_defs { #全局设置 notification_email { root@localhost #邮件地址 } notification_email_from root smtp_server 127.0.0.1 #发送邮件的地址 smtp_connect_timeout 30 router_id KEEPALIVED_LVS}vrrp_instance VI_1 { state MASTER #级别为MASTER interface eth1 #对外的网卡 virtual_router_id 74 #VIP组号,做实验的时候不要和别人是一个组 priority 200 #优先级 advert_int 1 authentication { #组内验证 auth_type PASS auth_pass magedu } virtual_ipaddress { 172.17.177.176 #对外的VIP }}vrrp_instance VI_2 { state MASTER interface eth0 virtual_router_id 75 priority 200 advert_int 1 authentication { auth_type PASS auth_pass magedu } virtual_ipaddress { 192.168.153.153 #对内的DIP的VIP,因为是两个调度器,所以要让DIP的地址也漂 }} 主要是实现VIP对外,然后再生成一个DIP的VIP对内 启动服务systemctl start keepalived 开启路由转发vim /etc/sysctl.conf net,ipv4,ip_forward=1 sysctl -p 生效 (2)配置主haproxy
vim /etc/haproxy/haproxy.cfg
global(默认的就行)
log 127.0.0.1 local2 chroot /var/lib/haproxy pidfile /var/run/haproxy.pid maxconn 4000 user haproxy group haproxy daemon stats socket /var/lib/haproxy/statsdefaults(默认的就行) mode http log global option httplog option dontlognull option http-server-close option forwardfor except 127.0.0.0/8 option redispatch retries 3 timeout http-request 10s timeout queue 1m timeout connect 10stimeout client 1m timeout server 1m timeout http-keep-alive 10s timeout check 10s maxconn 3000frontend http bind 172.17.177.176:80 #80端口绑定到VIP上 stats enable #启动监控页面 stats uri /haproxy #监控页面的路径 stats auth admin:admin #监控页面的账号密码 stats refresh #10s监控页面每10秒自动刷新一次 stats admin if TRUE #能修改监控页面 acl imagejingtai path_end -i .jpj .png .bmp .gif .js .css #匹配静态页面 acl imagephp path_end -i .php #匹配动态php页面use_backend webserver1 if imagephp #如果匹配到imagephp就调度到webserver1中 acl host src 172.17.0.0/16 #匹配172.17这个网段 block if ! host #如果不是host里面的网段就都拒绝 default_backend webserver #默认的backend是webserverbackend webserver1 #后端的服务器 balance roundrobin #使用的算法 server web1 192.168.153.177:80 check weight 1backend webserver2 balance roundrobin server web2 192.168.153.176:80 check weight 1backend webserver balance roundrobin cookie SRV insert nocache #基于cookie验证 server http1 192.168.153.177:80 check weight 1 cookie srv1 #基于cookie的srv1验证保持会话server http1 192.168.153.176:80 check weight 1 启动服务systemctl start haproxy 查看80端口是否监听在VIP上 ss -ntl3、配置从的服务器
(1)配置从的keepalived
vim /etc/keepalived/keepalived.conf
global_defs { notification_email { root@localhost } notification_email_from root smtp_server 127.0.0.1 smtp_connect_timeout 30 router_id KEEPALIVED_LVS}vrrp_instance VI_1 { state BACKUP #MASTER需要改成BACKUP interface eth1 virtual_router_id 74 priority 190 #优先级需要调小 advert_int 1 authentication { auth_type PASS auth_pass magedu } virtual_ipaddress { 172.17.177.176 }}vrrp_instance VI_2 { state BACKUP #MASTER需要改成BACKUP interface eth0 virtual_router_id 75 priority 190 #优先级需要调小 advert_int 1 authentication { auth_type PASS auth_pass magedu } virtual_ipaddress { 192.168.153.153 }} 启动服务systemctl start keepalived 开启路由转发vim /etc/sysctl.conf net,ipv4,ip_forward=1 sysctl -p 生效 (2)配置从的haproxy(和主的haproxy配置一样)
vim /etc/haproxy/haproxy.cfg
global(默认的就行)
log 127.0.0.1 local2 chroot /var/lib/haproxy pidfile /var/run/haproxy.pid maxconn 4000 user haproxy group haproxy daemon stats socket /var/lib/haproxy/statsdefaults(默认的就行) mode http log global option httplog option dontlognull option http-server-close option forwardfor except 127.0.0.0/8 option redispatch retries 3 timeout http-request 10s timeout queue 1m timeout connect 10stimeout client 1m timeout server 1m timeout http-keep-alive 10s timeout check 10s maxconn 3000frontend http bind 172.17.177.176:80 #80端口绑定到VIP上 stats enable #启动监控页面 stats uri /haproxy #监控页面的路径 stats auth admin:admin #监控页面的账号密码 stats refresh #10s监控页面每10秒自动刷新一次 stats admin if TRUE #能修改监控页面 acl imagejingtai path_end -i .jpj .png .bmp .gif .js .css #匹配静态页面 acl imagephp path_end -i .php #匹配动态php页面use_backend webserver1 if imagephp #如果匹配到imagephp就调度到webserver1中 acl host src 172.17.0.0/16 #匹配172.17这个网段 block if ! host #如果不是host里面的网段就都拒绝 default_backend webserver #默认的backend是webserverbackend webserver1 #后端的服务器 balance roundrobin #使用的算法 server web1 192.168.153.177:80 check weight 1backend webserver2 balance roundrobin server web2 192.168.153.176:80 check weight 1backend webserver balance roundrobin cookie SRV insert nocache #基于cookie验证 server http1 192.168.153.177:80 check weight 1 cookie srv1 #基于cookie的srv1验证保持会话server http1 192.168.153.176:80 check weight 1 启动服务service haproxy start4、配置后端的web服务器
需要提前搭建好基于LNMP实现的小米电子商务网站(前面的博客有如何搭建LNMP实现小米电子商务网站) (1)NAT模式
把80,3306,9000端口开开 systemctl start nginx php-fpm mariadb 然后把路由指向DIP的VIP ip route add default via 192.168.153.153
(2)DR模式
在调度器keepalived中不用配置DIP的VIP,因为把网关指向路由器就行 ip route add default via 172.17.0.1
还要在回环网卡上加入VIP地址 ifconfig lo:0 172.17.166.165 broadcast 172.17.166.165 netmask 255.255.255.255 up 添加路由,让VIP走lo:0 route add -host 172.17.166.165 dev lo:0 只回答目标IP地址是来访网络接口本地地址的ARP查询请求 echo "1" > /proc/sys/net/ipv4/conf/lo/arp_ignore 对查询目标使用最适当的本地地址.在此模式下将忽略这个IP数据包的源地址并尝试选择与能与该地址通信的本地地址. 5、然后就可以去测试看VIP会不会飘逸,关闭主的服务器,然后看能不能访问web服务器
还可以访问http://192.168.153.177/haproxy去管理后台web服务器
到此为止就完全实现负载均衡和高可用,后端web服务器多台时候就在haproxy中多加几个server就可以了!
一、用haproxy结合keepalived实现基于lnmp的负载均衡和高可用服务,要求: (1)实现动静分离,图片和css,js都分离到专门的静态服务器上 (2)只允许172.17网段用户访问 (3)对于动态请求,要求实现基于cookie的会话保持整体架构如下:
1、实验前需要关闭防火墙和selinux,以及同步时间。
关闭防火墙:iptables -F
关闭selinux:setenforce 0
同步时间:ntpdate 172.17.0.1(局域网的网关)
2、配置主服务器
(1)配置主keepalived
vim /etc/keepalived/keepalived.conf(基于NAT模式)
global_defs { #全局设置 notification_email { root@localhost #邮件地址 } notification_email_from root smtp_server 127.0.0.1 #发送邮件的地址 smtp_connect_timeout 30 router_id KEEPALIVED_LVS}vrrp_instance VI_1 { state MASTER #级别为MASTER interface eth1 #对外的网卡 virtual_router_id 74 #VIP组号,做实验的时候不要和别人是一个组 priority 200 #优先级 advert_int 1 authentication { #组内验证 auth_type PASS auth_pass magedu } virtual_ipaddress { 172.17.177.176 #对外的VIP }}vrrp_instance VI_2 { state MASTER interface eth0 virtual_router_id 75 priority 200 advert_int 1 authentication { auth_type PASS auth_pass magedu } virtual_ipaddress { 192.168.153.153 #对内的DIP的VIP,因为是两个调度器,所以要让DIP的地址也漂 }} 主要是实现VIP对外,然后再生成一个DIP的VIP对内 启动服务systemctl start keepalived 开启路由转发vim /etc/sysctl.conf net,ipv4,ip_forward=1 sysctl -p 生效 (2)配置主haproxy
vim /etc/haproxy/haproxy.cfg
global(默认的就行)
log 127.0.0.1 local2 chroot /var/lib/haproxy pidfile /var/run/haproxy.pid maxconn 4000 user haproxy group haproxy daemon stats socket /var/lib/haproxy/statsdefaults(默认的就行) mode http log global option httplog option dontlognull option http-server-close option forwardfor except 127.0.0.0/8 option redispatch retries 3 timeout http-request 10s timeout queue 1m timeout connect 10stimeout client 1m timeout server 1m timeout http-keep-alive 10s timeout check 10s maxconn 3000frontend http bind 172.17.177.176:80 #80端口绑定到VIP上 stats enable #启动监控页面 stats uri /haproxy #监控页面的路径 stats auth admin:admin #监控页面的账号密码 stats refresh #10s监控页面每10秒自动刷新一次 stats admin if TRUE #能修改监控页面 acl imagejingtai path_end -i .jpj .png .bmp .gif .js .css #匹配静态页面 acl imagephp path_end -i .php #匹配动态php页面use_backend webserver1 if imagephp #如果匹配到imagephp就调度到webserver1中 acl host src 172.17.0.0/16 #匹配172.17这个网段 block if ! host #如果不是host里面的网段就都拒绝 default_backend webserver #默认的backend是webserverbackend webserver1 #后端的服务器 balance roundrobin #使用的算法 server web1 192.168.153.177:80 check weight 1backend webserver2 balance roundrobin server web2 192.168.153.176:80 check weight 1backend webserver balance roundrobin cookie SRV insert nocache #基于cookie验证 server http1 192.168.153.177:80 check weight 1 cookie srv1 #基于cookie的srv1验证保持会话server http1 192.168.153.176:80 check weight 1 启动服务systemctl start haproxy 查看80端口是否监听在VIP上 ss -ntl3、配置从的服务器
(1)配置从的keepalived
vim /etc/keepalived/keepalived.conf
global_defs { notification_email { root@localhost } notification_email_from root smtp_server 127.0.0.1 smtp_connect_timeout 30 router_id KEEPALIVED_LVS}vrrp_instance VI_1 { state BACKUP #MASTER需要改成BACKUP interface eth1 virtual_router_id 74 priority 190 #优先级需要调小 advert_int 1 authentication { auth_type PASS auth_pass magedu } virtual_ipaddress { 172.17.177.176 }}vrrp_instance VI_2 { state BACKUP #MASTER需要改成BACKUP interface eth0 virtual_router_id 75 priority 190 #优先级需要调小 advert_int 1 authentication { auth_type PASS auth_pass magedu } virtual_ipaddress { 192.168.153.153 }} 启动服务systemctl start keepalived 开启路由转发vim /etc/sysctl.conf net,ipv4,ip_forward=1 sysctl -p 生效 (2)配置从的haproxy(和主的haproxy配置一样)
vim /etc/haproxy/haproxy.cfg
global(默认的就行)
log 127.0.0.1 local2 chroot /var/lib/haproxy pidfile /var/run/haproxy.pid maxconn 4000 user haproxy group haproxy daemon stats socket /var/lib/haproxy/statsdefaults(默认的就行) mode http log global option httplog option dontlognull option http-server-close option forwardfor except 127.0.0.0/8 option redispatch retries 3 timeout http-request 10s timeout queue 1m timeout connect 10stimeout client 1m timeout server 1m timeout http-keep-alive 10s timeout check 10s maxconn 3000frontend http bind 172.17.177.176:80 #80端口绑定到VIP上 stats enable #启动监控页面 stats uri /haproxy #监控页面的路径 stats auth admin:admin #监控页面的账号密码 stats refresh #10s监控页面每10秒自动刷新一次 stats admin if TRUE #能修改监控页面 acl imagejingtai path_end -i .jpj .png .bmp .gif .js .css #匹配静态页面 acl imagephp path_end -i .php #匹配动态php页面use_backend webserver1 if imagephp #如果匹配到imagephp就调度到webserver1中 acl host src 172.17.0.0/16 #匹配172.17这个网段 block if ! host #如果不是host里面的网段就都拒绝 default_backend webserver #默认的backend是webserverbackend webserver1 #后端的服务器 balance roundrobin #使用的算法 server web1 192.168.153.177:80 check weight 1backend webserver2 balance roundrobin server web2 192.168.153.176:80 check weight 1backend webserver balance roundrobin cookie SRV insert nocache #基于cookie验证 server http1 192.168.153.177:80 check weight 1 cookie srv1 #基于cookie的srv1验证保持会话server http1 192.168.153.176:80 check weight 1 启动服务service haproxy start4、配置后端的web服务器
需要提前搭建好基于LNMP实现的小米电子商务网站(前面的博客有如何搭建LNMP实现小米电子商务网站) (1)NAT模式
把80,3306,9000端口开开 systemctl start nginx php-fpm mariadb 然后把路由指向DIP的VIP ip route add default via 192.168.153.153
(2)DR模式
在调度器keepalived中不用配置DIP的VIP,因为把网关指向路由器就行 ip route add default via 172.17.0.1
还要在回环网卡上加入VIP地址 ifconfig lo:0 172.17.166.165 broadcast 172.17.166.165 netmask 255.255.255.255 up 添加路由,让VIP走lo:0 route add -host 172.17.166.165 dev lo:0 只回答目标IP地址是来访网络接口本地地址的ARP查询请求 echo "1" > /proc/sys/net/ipv4/conf/lo/arp_ignore 对查询目标使用最适当的本地地址.在此模式下将忽略这个IP数据包的源地址并尝试选择与能与该地址通信的本地地址. 5、然后就可以去测试看VIP会不会飘逸,关闭主的服务器,然后看能不能访问web服务器
还可以访问http://192.168.153.177/haproxy去管理后台web服务器
到此为止就完全实现负载均衡和高可用,后端web服务器多台时候就在haproxy中多加几个server就可以了!
相关文章推荐
- 实现基于haproxy和keepalived的负载均衡和高可用架构
- HAProxy+Keepalived实现负载均衡高可用
- Keepalived+HAProxy实现MySQL高可用负载均衡的配置
- linux运维进阶-Haproxy和pacemaker结合corosync实现负载均衡高可用及crm命令
- 使用HAproxy,keepalived实现简单LAMP架构的负载均衡与高可用
- 基于HAProxy+Varnish实现动静分离、负载均衡的高可用集群
- Keepalived+HAProxy实现MySQL高可用负载均衡的配置
- Haproxy+Keepalived实现负载均衡高可用
- Haproxy和pacemaker结合corosync实现负载均衡高可用,以及crm命令的使用
- haproxy+keepalived实现负载均衡及高可用
- Keepalived + Nginx实现高可用 Web负载均衡
- HAProxy基于KeepAlived实现Web高可用及动静分离
- haproxy实现的web反向代理,动静分离,以及基于keepalived实现的haproxy的高可用
- 实现基于Keepalived+Haproxy+Varnish+LNMP企业级架构
- LVS+Keepalived DR模式实现web负载均衡高可用
- HAProxy系列—keepalived+haproxy实现高可用负载层
- Keepalived+Nginx实现前端负载均衡的高可用
- haproxy结合keepalived实现httpd的高可用服务
- Keepalived+Nginx实现负载均衡高可用
- lvs+keepalived实现负载均衡及高可用