您的位置:首页 > 职场人生

实现WEB负载均衡群集

2010-05-06 10:36 190 查看
具体步骤如下:

一、Director配置

1、设置网络接口地址

[root @director root] # vi /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE=eth0

BOOTPROTO=static

BROADCAST=192.168.0.255

HWADDR=00:0C:29:A2:BD:B5

IPADDR=192.168.0.160

NETMASK=255.255.255.0

NETWORK=192.168.0.0

ONBOOT=yes

2、编辑 lvs 脚本

[root @director root] # vi /etc/init.d/lvsdr

#!/bin/bash

VIP=192.168.0.222

RIP1=192.168.0.249

RIP2=192.168.0.251

/etc/rc.d/init.d/funcions

case "$1" in

start)

echo "start LVS of DirectorServer"

#Set the Virtual ip address

/sbin/ifconfig eth0:0 $VIP broadcast $VIP netmask 255.255.255.255 up

/sbin/route add -host $VIP dev eth0:0

# Clear ipvs Table

/sbin/ipvsadm -C

# set lvs

/sbin/ipvsadm -A -t $VIP:80 -s rr

/sbin/ipvsadm -a -t $VIP:80 -r $RIP1:80 -g

/sbin/ipvsadm -a -t $VIP:80 -r $RIP2:80 -g

#Run Lvs

/sbin/ipvsadm

;;

stop)

echo "close LVS Directorsever"

/sbin/ipvsadm -C

/sbin/ifconfig eth0:0 down

;;

*)

echo "Usage: $0 {start|stop}"

exit 1

esac

# 保存并退出,将该文件设置为可执行文件

[root @director root] # chmod 755 /etc/init.d/lvsdr

3、安装 ipvsadm

[root @ Director root] # modprobe –l | grep ipvs

/lib/modules/2.6.9-11.EL/kernel/net/ipv4/ipvs/ip_vs.ko

/lib/modules/2.6.9-11.EL/kernel/net/ipv4/ipvs/ip_vs_ftp.ko

/lib/modules/2.6.9-11.EL/kernel/net/ipv4/ipvs/ip_vs_lblc.ko

/lib/modules/2.6.9-11.EL/kernel/net/ipv4/ipvs/ip_vs_wlc.ko

/lib/modules/2.6.9-11.EL/kernel/net/ipv4/ipvs/ip_vs_sed.ko

/lib/modules/2.6.9-11.EL/kernel/net/ipv4/ipvs/ip_vs_rr.ko

/lib/modules/2.6.9-11.EL/kernel/net/ipv4/ipvs/ip_vs_wrr.ko

/lib/modules/2.6.9-11.EL/kernel/net/ipv4/ipvs/ip_vs_nq.ko

/lib/modules/2.6.9-11.EL/kernel/net/ipv4/ipvs/ip_vs_sh.ko

/lib/modules/2.6.9-11.EL/kernel/net/ipv4/ipvs/ip_vs_dh.ko

/lib/modules/2.6.9-11.EL/kernel/net/ipv4/ipvs/ip_vs_lblcr.ko

/lib/modules/2.6.9-11.EL/kernel/net/ipv4/ipvs/ip_vs_lc.ko

[root @director root] # ln –s /usr/src/kernels/2.6.9-11.EL-i686 /usr/src/linux

[root @ director root] # tar xzvf ipvsadm-1.24.tar.gz

[root @ director ipvsadm-1.24] # cd ipvsadm-1.24

[root @ director ipvsadm-1.24] # make

[root @ director ipvsadm-1.24] # make install

由于在这里我搭建的是 WEB 的负载均衡群集,而我在安装 Redhat EL 4.0 时并没有选择安装 WEB 服务器组件,所以这里需要另外安装,如果已安装的朋友可以略过这里(注:可以用 rpm –qa |grep http 查看是否已经安装)

[root @ director root] # tar xzvf httpd-2.2.4.tar.gz

[root @ director root] # cd httpd-2.2.4

[root @ director httpd-2.2.4] # ./configure –prefix=/usr/local/apache –enable-so –enable-rewrite

[root @ director httpd-2.2.4] # make

[root @ director httpd-2.2.4] # make install

[root @ director httpd-2.2.4] # echo “/usr/local/apache/bin/apachectl” >> /etc/rc.local

4、安装 heartbeat

在安装 heartbeat 前先要安装 libnet,下载地址:http://www.packetfactory.net/libnet/

[root @ director root] # tar xzvf libnet.tar.gz

[root @ director root] # cd libnet

[root @ director libnet] # ./configure

[root @ director libnet] # make

[root @ director libnet] # make install

[root @ director libnet] # cd

在安装 heartbeat 之前还需要创建属于 heartbeat 的组和用户

[root @ director root] # groupadd –g 694 haclient

[root @ director root] # useradd –g 694 –u 694 hacluster

[root @ director root] # tar xzvf heartbeat-2.1.2.tar.gz

[root @ director root] # cd heartbeat-2.1.2

[root @ director heartbeat-2.1.2] # ./ConfigureMe configure

[root @ director heartbeat-2.1.2] # make

[root @ director heartbeat-2.1.2] # make install

在安装完 heartbeat 后,会有一个 /etc/ha.d 目录,这是 heartbeat 的配置文件存放的目录,heartbeat 的配置文件都放在这里。但默认在安装完 heartbeat 后,heartbeat 最重要的三个配置文件 ha.cf、haresources、authkeys却没有放在这里,需要我们手工 copy 过来才行。

[root @ director heartbeat-2.1.2] # cp doc/ha.cf doc/haresources doc/authkeys /etc/ha.d

将 ldirector 的配置文件也 copy 过来

[root @ director heartbeat-2.1.2] # cp ldirectord/ldirectord.cf /etc/ha.d

6、编辑 heartbeat 的配置文件

[root @ director heartbeat-2.1.2] # vi /etc/ha.d/ha.cf

# hearbeat 的查错文件存放点

debugfile /var/log/ha-debug

# heartbeat 的日志文件存放点

logfile /var/log/ha-log

#设定heartbeat(心跳)之间的时间间隔为2秒。

keepalive 2

#在60秒后宣布节点死亡。

deadtime 60

#在日志中发出“late heartbeat“警告之前等待的时间,单位为秒。

warntime 10

在某些配置下,重启后网络需要一些时间才能正常工作。这个单独的”deadtime”选项可以处理这种情况。它的取值至少应该为通常deadtime的两倍。

initdead 120

#使用端口694进行bcast和ucast通信。这是默认的,并且在IANA官方注册的端口号。

udpport 694

#表示在eth0接口上使用广播heartbeat(将eth0替换为eth1,eth2,或者您使用的任何接口)。

bcast eth0 # Linux

#必须的。集群中机器的主机名,与“uname –n”的输出相同。

node director

node bkdirector

# 必须的,当auto_failback设置为on时,一旦主节点重新恢复联机,将从从节点取回所有资源。若该选项设置为off,主节点便不能重新获得资源。该选项与废弃的nice_failback选项类似。

auto_failback on

# 默认heartbeat并不检测除本身之外的其他任何服务,也不检测网络状况。

# 所以当网络中断时,并不会进行Load Balancer和Backup之间的切换。

# 可以通过ipfail插件,设置'ping nodes'来解决这一问题。详细说明参考hearbeat文档。

ping_group group1 192.168.0.160 192.168.0.225

respawn root /usr/lib/heartbeat/ipfail

apiauth ipfail gid=root uid=root

hopfudge 1

use_logd yes

#保存并退出

编辑 haresources 文件,haresources 文件通知 heartbeat 程序哪台机器拥有资源,资源名称实际是 /etc/init.d 或 /etc/ha.d/resource.d 目录下的脚本,Heartbeat 使用 haresources 配置文件确定它第一次启动时应该做的工作。该文件列出集群所提供的服务以及服务的默认所有者。 注意:两个集群节点上的该文件必须相同,否则BadThingsWillHappen。

[root @ director heartbeat-2.1.2] # vi /etc/ha.d/haresources

director lvsdr

#设置 director 为主节点,提供的群集服务为 lvsdr, 主节点的名称要与 “uname -n” 的输出相同

#保存并退出

编辑 authkeys 文件,需要配置的第三个文件authkeys决定了您的认证密钥。共有三种认证方式:crc,md5,和sha1。您可能会问:“我应该用哪个方法呢?”简而言之:

如果您的Heartbeat运行于安全网络之上,如本例中的交叉线,可以使用crc,从资源的角度来看,这是代价最低的方法。如果网络并不安全,但您也希望降低CPU使用,则使用md5。最后,如果您想得到最好的认证,而不考虑CPU使用情况,则使用sha1,它在三者之中最难破解。

[root @ director heartbeat-2.1.2] # vi /etc/ha.d/authkeys

auth 1

1 crc

# 保存并退出

确保 authkeys 文件仅能由 root 用户读取

[root @ director heartbeat-2.1.2] # chmod 600 /etc/ha.d/authkeys

编辑 /etc/hosts 文件,添加两台机器的名字,做好名字到IP的对应

[root @ director heartbeat-2.1.2] # vi /etc/hosts

192.168.0.160 director

192.168.0.225 bkdirector

注:在备用 director 上也做相同的设置

二、Real Server 配置

1、编辑网络接口

[root @cluser1 root] #vi /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE=eth0

BOOTPROTO=static

BROADCAST=192.168.0.255

HWADDR=00:0C:29:54:80:3A

IPADDR=192.168.0.249

NETMASK=255.255.255.0

NETWORK=192.168.0.0

ONBOOT=yes

TYPE=Ethernet

2、编辑 lvs 脚本

[root @cluser1 root] # vi /etc/init.d/lvsrs

#!/bin/bash

VIP=192.168.0.222

case "$1" in

start)

echo "Start Real Server"

/sbin/ifconfig lo:0 $VIP broadcast $VIP netmask 255.255.255.255 up

/sbin/route add -host $VIP dev lo:0

echo "1" > /proc/sys/net/ipv4/conf/lo/arp_ignore

echo "2" > /proc/sys/net/ipv4/conf/lo/arp_announce

echo "1" > /proc/sys/net/ipv4/conf/all/arp_ignore

echo "2" > /proc/sys/net/ipv4/conf/all/arp_announce

sysctl -p

;;

stop)

echo "Closeing Real Server....."

ifconfig lo:0 down

;;

*)

echo "Usage: $0 {start|stop}

exit 1

esac

# 保存并退出

将 /etc/init.d/lvsrs 放到 /etc/rc.local 文件中,这样可以在开机时自启动

[root @cluser1 root] # echo “/etc/init.d/lvsrs” >> /etc/rc.local

在另外一台 Real Server 上做相同的设置

确保 Real Server 上的 http 服务已处于监听状态,可以用 netstat –tlunp 命令查看

[root @ cluster1 root] # netstat –tlunp

如果没有启用启用 http 服务,请启用。

[root @ cluster1 root] # /usr/local/apache/bin/apachectl start

三、启动web 群集负载平衡与测试

1、启动 heartbeat

[root @ director root] # /etc/init.d/heartbeat start

在备用 director 上启动 heartbeat

2、测试

此时在客户端的浏览器中输入群集服务器的IP 地址:http://192.168.0.222

就会显示相应的页面,最好是在两台 Real Server 上设置不同的WEB 页面,这样在客户端刷页面就会看到不同的页面,这样也可以证明客户端的请求是在两台不同的服务器进行轮询。

也可以在主备份服务器上使用 ipvsadm –lc 命令查看

[root @director root] # ipvsadm -lc

PVS connection entries

pro expire state source virtual destination

TCP 01:55 FIN_WAIT 192.168.0.114:2849 192.168.0.222:http cluster1:http

TCP 14:56 ESTABLISHED 192.168.0.114:2850 192.168.0.222:http cluster2:http

测试1:主 director 崩溃后,从 director 是否可以接管主 director 的工作

为了测试主 director 崩溃后,从 director 是否可以接管主 director 的工作,将主 director 关机或拔掉网线.然后在从 director 进行如下操作以证明从 director 是否已经接管了主 director 的工作:

1、 用 ifconfig 命令查看是否有 eth0:0 接口,主 director 正常工作的时候,在从 director 是不会出现 eth0:0 接口的,主 director 崩溃后 eth0:0 即刻就会出现

2、 可以用 tail –f /var/log/messages 命令查看 heartbeat 的日志

3、 用 ipvsadm 命令查看是否已经启用 ipvsadm, 主 director 正常工作的时候,从 director 是不会启用 ipvsadm 的,主 director 正常工作时,在从 director 用 ipvsadm 查看的显示:

[root @bkdirector root] # ipvsadm

IP Virtual Server version 1.2.0 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port Forward Weight ActiveConn InActConn

主 director 崩溃后,从 director 上的 ipvsadm 输出

[root @bkdirector root] # ipvsadm

IP Virtual Server version 1.2.0 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port Forward Weight ActiveConn InActConn

TCP 192.168.0.222:http rr

-> redhat:http Route 1 0 0

-> redhatAS4.0:http Route 1 0 0

测试2:主 director 恢复正常后,从 director 上的服务是否会回到主 director 上

1、 重新启动主 director,在主 director 启动,进入系统后,此时在从 director 上用 ifconfig 命令查看,发现 eth0:0 不见了,在主 director 上用 ifconfig 查看可以看到 eth0:0 ,据此可证明 VIP 已经由从 director 转移到了主 director 上。

2、 在客户端浏览器中输入群集服务器的IP 地址:http://192.168.0.222 可以正常浏览,在主 director 上用 ipvsadm –lc 命令可以查看到客户端浏览群集服务器的WEB页面,而在从 director 上用 ipvsdm –lc 命令查看,显示为空白。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  职场 WEB 休闲 群集 负载