集群:(二)LVS-NAT 和 LVS-DR 模型的实现
2011-09-09 22:19
691 查看
[align=center] LVS-NAT 和 LVS-DR 模型的实现[/align]
LVS-NAT: (Linux虚拟服务器)
[align=left]平台: VMware ACE Edition (Version:6.05)[/align]
IMGAGE: Red Hat Enterprise Linux 5
------------------------------------------------------------------
DIRECTOR:
VIP: 192.160.0.40 // eth0:0
DIP:172.16.10.10
REALSERVER:
RSever1 vip:192.168.0.40 // lo:0
RSever2 vip: 192.168.0.40 // lo:0
架构如下图:
------------------------------------------------------------------
测试:
=========================================================================================
[align=left][b]LVS-DR:[/b][/align]
DR 模型
1.全部桥接 相当于都接入了一个交换机上
2.为了避免VIP 对主机的响应的干扰我们在 REALSERVER端把 VIP设置在REALSERVER的 LOOP接口上
源地址选择总是选最佳的IP地址 所以 REALSERVER出来的IP 是选LOOP 接口 VIP基于响应 添加一条主机路由
Director:
RIP 要配置在接口上, VIP 要配置在LO 的别名上
1.配置VIP
# ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255
# route add -host $vip dev eth0:0
echo 1 > /proc/sys/net/ipv4/ip_forward
2.定义集群服务 //last congure
REALSERVER:
RIP要配置在接口上,VIP 要配置在LO的别名上:
1.定义内核参数,禁止响应对VIP 的ARP 的广播请求:
echo 1 > /proc/sys/net/ipv4/conf/lo/arp_igonre
echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce
echo 1 > /proc/sys/net/ipv4/conf/all/arp_igonre
echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
2.配置VIP
# ifconfig lo $VIP broadcast $VIP netmask 255.255.255.255 up
# route ad -host $VIP dev lo:0
3.配置启动服务 启动定义为集群的服务
LVS-NAT: (Linux虚拟服务器)
[align=left]平台: VMware ACE Edition (Version:6.05)[/align]
IMGAGE: Red Hat Enterprise Linux 5
------------------------------------------------------------------
DIRECTOR:
VIP: 192.160.0.40 // eth0:0
DIP:172.16.10.10
REALSERVER:
RSever1 vip:192.168.0.40 // lo:0
RSever2 vip: 192.168.0.40 // lo:0
架构如下图:
------------------------------------------------------------------
Director: yum install ipvsadm RServer1: yum install mysql-server php php-sql php-mbsring RServer2: yum install mysql-server php php-sql php-mbsring RServer1: vim /var/www/html/index <h1>RealServer TestPage1</h1> RServer1: vim /var/www/html/index <h1>RealServer TestPage2</h1> service httpd start Director: cat /proc/sys/net/ipv4/ip_forward echo 1 > !$ // 打开ICMP转发功能 Director: ipvsadm -A -t 192.168.0.40 -s rr ipvsadm -L -n Director: ipvsadm -a -t 192.168.0.40:80 -r 172.16.10.11 -m ipvsadm -a -t 192.168.0.40:80 -r 172.16.10.12 -m
测试:
=========================================================================================
[align=left][b]LVS-DR:[/b][/align]
DR 模型
1.全部桥接 相当于都接入了一个交换机上
2.为了避免VIP 对主机的响应的干扰我们在 REALSERVER端把 VIP设置在REALSERVER的 LOOP接口上
源地址选择总是选最佳的IP地址 所以 REALSERVER出来的IP 是选LOOP 接口 VIP基于响应 添加一条主机路由
Director:
RIP 要配置在接口上, VIP 要配置在LO 的别名上
1.配置VIP
# ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255
# route add -host $vip dev eth0:0
echo 1 > /proc/sys/net/ipv4/ip_forward
2.定义集群服务 //last congure
REALSERVER:
RIP要配置在接口上,VIP 要配置在LO的别名上:
1.定义内核参数,禁止响应对VIP 的ARP 的广播请求:
echo 1 > /proc/sys/net/ipv4/conf/lo/arp_igonre
echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce
echo 1 > /proc/sys/net/ipv4/conf/all/arp_igonre
echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
2.配置VIP
# ifconfig lo $VIP broadcast $VIP netmask 255.255.255.255 up
# route ad -host $VIP dev lo:0
3.配置启动服务 启动定义为集群的服务
相关文章推荐
- lvs集群实现lvs-dr模型和lvs-nat模型
- 实例详解LB基于LVS架构之NAT、DR模型架构实现web服务负载均衡 推荐
- linux下负载均衡集群 LVS之NAT和DR模型
- LVS专题: NAT和DR模型实现Web负载均衡
- lvs-nat模型的实现 和 lvs-dr模型的实现
- LVS基于DR模型实现负载均衡集群实验
- 实例详解LB基于LVS架构之NAT、DR模型架构实现web服务负载均衡
- 在centos6系统上基于session绑定实现nat模型的lvs集群,并在RS上安装Discuz论坛 推荐
- Linux环境下实现LVS-NAT模型和LVS-DR模型
- 双主模型高可用负载均衡集群的实现(keepalived+lvs-dr)
- LVS简单实现NAT&DR模型
- 三十三天 大规模站点构建、lvs原理、lvs调度及nat模型实现、lvs dr模型及lxc虚拟化
- LVS集群DR、NAT模型配置, 及使用ldirectord完成LVS DR模型集群搭建
- lvs-nat及lvs-dr和keepalived的主从和主主模型实现
- LVS基本知识总结及其NAT模型与DR模型的实现
- lvs在nat dr tun 模型的实现
- LVS基础详解和NAT/DR模型的实现
- LVS基于DR模型实现简单负载均衡集群和持久连接