基于heartbeat v1+ldirectord实现LVS集群高可用 推荐
2015-06-07 21:54
507 查看
前言
高可用集群,High Availability Cluster,简称HA Cluster,是指以减少服务中断时间为目的的服务器集群技术。通过上文可以看出,LVS集群本身并不能实现高可用,比如Director Server不能检测Real Server的健康度,一旦其中一台或全部Real Server宕机,Director Server还会继续转发请求,导致站点无法访问,同样,如果Director Server宕机站点就更不可能正常运转了。本文将讲解如何基于heartbeat v1实现LVS集群高可用。Heartbeat 简介
Heartbeat是Linux-HA工程的一个组件,自1999年开始到现在,发布了众多版本,是目前开源Linux-HA项目最成功的一个例子,在行业内得到了广泛的应用。工作原理Heartbeat最核心的包括两个部分,心跳监测部分和资源接管部分,心跳监测可以通过网络链路和串口进行,而且支持冗余链路,它们之间相互发送报文来告诉对方自己当前的状态,如果在指定的时间内未收到对方发送的报文,那么就认为对方失效,这时需启动资源接管模块来接管运行在对方主机上的资源或者服务。基于Heartbeat v1实现LVS集群高可用实验拓扑
实验环境node1:node1.scholar.com 172.16.10.123 CentOS6.6
node2:node2.scholar.com 172.16.10.124 CentOS6.6Real Server1:192.168.1.10(VIP)172.16.10.125(RIP) CentOS6.6Real Server2:192.168.1.10(VIP)172.16.10.126(RIP) CentOS6.6注意事项
配置高可用集群的前提:(以两节点的heartbeat为例)①时间必须保持同步使用ntp服务器②节点必须名称互相通信解析节点名称/etc/host集群中使用的主机名为`uname -n`表示的主机名③ping node仅偶数节点才需要④ssh密钥认证进行通信配置过程
时间同步请确保两个节点时间同步,这里不再详细讲述解析名配置
配置算法密钥
配置ldirectord准备配置文件并配置
准备fallback文件
RS设置
准备健康度探测文件和站点文件
测试页面
启动heartbeat
查看资源是否生效
高可用测试
刷新页面
将RS2模拟宕机
无论怎么刷新都是RS1的页面
接下来我们把RS1也停掉
切回fallback页面了我们将node1停掉,看一下node2是否可以接管资源
资源成功接管,以上访问也不受任何影响,当然如果在次启动node1资源会被再次抢过去,这里就不再演示基于heartbeat v1 实现LVS高可用至此完成The end好了,基于heartbeat v1 实现LVS高可用就说到这里了,整个过程还是挺好玩的,配置过程中遇到问题可留言,下篇将会讲解基于heartbeat v2的高可用集群,有兴趣可以继续关注呦。以上仅为个人学习整理,如有错漏,大神勿喷~~~
高可用集群,High Availability Cluster,简称HA Cluster,是指以减少服务中断时间为目的的服务器集群技术。通过上文可以看出,LVS集群本身并不能实现高可用,比如Director Server不能检测Real Server的健康度,一旦其中一台或全部Real Server宕机,Director Server还会继续转发请求,导致站点无法访问,同样,如果Director Server宕机站点就更不可能正常运转了。本文将讲解如何基于heartbeat v1实现LVS集群高可用。Heartbeat 简介
Heartbeat是Linux-HA工程的一个组件,自1999年开始到现在,发布了众多版本,是目前开源Linux-HA项目最成功的一个例子,在行业内得到了广泛的应用。工作原理Heartbeat最核心的包括两个部分,心跳监测部分和资源接管部分,心跳监测可以通过网络链路和串口进行,而且支持冗余链路,它们之间相互发送报文来告诉对方自己当前的状态,如果在指定的时间内未收到对方发送的报文,那么就认为对方失效,这时需启动资源接管模块来接管运行在对方主机上的资源或者服务。基于Heartbeat v1实现LVS集群高可用实验拓扑
实验环境node1:node1.scholar.com 172.16.10.123 CentOS6.6
node2:node2.scholar.com 172.16.10.124 CentOS6.6Real Server1:192.168.1.10(VIP)172.16.10.125(RIP) CentOS6.6Real Server2:192.168.1.10(VIP)172.16.10.126(RIP) CentOS6.6注意事项
配置高可用集群的前提:(以两节点的heartbeat为例)①时间必须保持同步使用ntp服务器②节点必须名称互相通信解析节点名称/etc/host集群中使用的主机名为`uname -n`表示的主机名③ping node仅偶数节点才需要④ssh密钥认证进行通信配置过程
时间同步请确保两个节点时间同步,这里不再详细讲述解析名配置
[root@node1 ~]# vim /etc/hosts 172.16.10.123 node1.scholar.com node1 172.16.10.124 node2.scholar.com node2 [root@node1 ~]# vim /etc/sysconfig/network HOSTNAME=node1.scholar.com [root@node1 ~]# uname -n node1.scholar.com #两个节点都需如上操作ssh密钥配置
[root@node1 ~]# ssh-keygen -t rsa -P '' [root@node1 ~]# ssh-copy-id -i .ssh/id_rsa.pub root@node2 [root@node2 ~]# ssh-keygen -t rsa -P '' [root@node2 ~]# ssh-copy-id -i .ssh/id_rsa.pub root@node1 [root@node1 ~]# date; ssh node2 'date' #测试 Sun Jun 7 17:46:03 CST 2015 Sun Jun 7 17:46:03 CST 2015安装所需软件包
#解决依赖关系 [root@node1 ~]# yum install perl-TimeDate net-snmp-libs libnet PyXML -y #需epel源支持 [root@node1 ~]# cd heartbeat2 [root@node1 heartbeat2]# ls heartbeat-2.1.4-12.el6.x86_64.rpm heartbeat-pils-2.1.4-12.el6.x86_64.rpm heartbeat-gui-2.1.4-12.el6.x86_64.rpm heartbeat-stonith-2.1.4-12.el6.x86_64.rpm heartbeat-ldirectord-2.1.4-12.el6.x86_64.rpm [root@node1 heartbeat2]# rpm -ivh heartbeat-2.1.4-12.el6.x86_64.rpm heartbeat-pils-2.1.4-12.el6.x86_64.rpm heartbeat-stonith-2.1.4-12.el6.x86_64.rpm [root@node1 heartbeat2]# yum install heartbeat-ldirectord-2.1.4-12.el6.x86_64.rpm -y #两个节点都执行以上操作配置heartbeat准备配置文件
配置算法密钥
[root@node1 ~]# openssl rand -hex 8 4d8fd6cb49d2047b [root@node1 ~]# vim /etc/ha.d/authkeys auth 2 2 sha1 4d8fd6cb49d2047b配置主配置文件
[root@node1 ~]# grep -v "#" /etc/ha.d/ha.cf |grep -v "^$" logfile /var/log/ha-log #日志存放位置 keepalive 2 #指定心跳使用间隔时间 deadtime 30 #指定备用节点接管主节点服务资源超时时间 warntime 10 #指定心跳延迟的时间 initdead 120 #解决网络启动延时 udpport 694 #设置广播通信端口 mcast eth0 225.0.25.1 694 1 0 #定义广播地址 auto_failback on #定义当主节点恢复后,是否将服务自动切回 node node1.scholar.com #主节点 node node2.scholar.com #备用节点 ping 172.16.0.1 #仲裁设备配置资源管理器
[root@node1 ~]# vim /etc/ha.d/haresources node1.scholar.com 192.168.1.10/32/eth0/192.168.1.10 ldirectord::/etc/ha.d/ldirectord.cf将配置文件传给备用节点
配置ldirectord准备配置文件并配置
[root@node1 ~]# cp /usr/share/doc/heartbeat-ldirectord-2.1.4/ldirectord.cf /etc/ha.d/ [root@node1 ~]# grep -v ^# /etc/ha.d/ldirectord.cf checktimeout=3 #探测超时时间 checkinterval=1 #探测间隔时间 autoreload=yes #修改配置文件,无需重启服务即可重载 quiescent=yes #real server 宕机后从lvs列表中删除,恢复后自动添加进列表 virtual=192.168.1.10:80 #VIP real=172.16.10.125:80 gate #real server real=172.16.10.126:80 gate #real server fallback=127.0.0.1:80 gate #如果RS节点都宕机,则启用本地环回口地址 service=http #基于http协议探测 request=".health.html" #探测文件 receive="ok" #探测内容,判断RS是否存活 scheduler=rr #调度算法 #persistent=600 #netmask=255.255.255.255将配置文件传给备用节点,并禁止各节点ldirectord开启自启
准备fallback文件
RS设置
#两个RS各进行如下配置配置内核参数
准备健康度探测文件和站点文件
测试页面
启动heartbeat
查看资源是否生效
高可用测试
刷新页面
将RS2模拟宕机
#service httpd stop
无论怎么刷新都是RS1的页面
接下来我们把RS1也停掉
切回fallback页面了我们将node1停掉,看一下node2是否可以接管资源
[root@node1 ~]# service heartbeat stop
资源成功接管,以上访问也不受任何影响,当然如果在次启动node1资源会被再次抢过去,这里就不再演示基于heartbeat v1 实现LVS高可用至此完成The end好了,基于heartbeat v1 实现LVS高可用就说到这里了,整个过程还是挺好玩的,配置过程中遇到问题可留言,下篇将会讲解基于heartbeat v2的高可用集群,有兴趣可以继续关注呦。以上仅为个人学习整理,如有错漏,大神勿喷~~~
相关文章推荐
- Linux 高可用(HA)集群之heartbeat基于crm进行资源管理详解
- SQL Server高可用的常见问题分析
- LVS+Keepalived构建高可用负载均衡(测试篇)
- LVS(Linux Virtual Server)Linux 虚拟服务器介绍及配置(负载均衡系统)
- java发送heartbeat心跳包(byte转16进制)
- linux服务器之LVS、Nginx和HAProxy负载均衡器对比总结
- windows NLB+ARR实现Web负载均衡高可用/可伸缩的方法
- LVS+Keepalived构建高可用负载均衡配置方法(配置篇)
- CentOS下Redis高可用安装笔记
- 高可用,完全分布式Hadoop集群HDFS和MapReduce安装配置指南
- 使用 RMI + ZooKeeper 实现远程调用框架
- 基于zookeeper+leveldb搭建activemq集群
- linux技术应用
- How to Setup a windows 2008 Failover cluster[01]
- LVS+keepalived
- CentOS 6.3下部署LVS(NAT)+keepalived实现高性能高可用负载均衡
- lvs+heartbeat
- 如何用DNS+GeoIP+Nginx+Varnish做世界级的CDN
- LVS
- LVS+keepalived配置