目录
5.2、部署共享存储(NFS服务器:192.168.59.14)
配置虚拟IP地址(vip:192.168.59.100){web1和web2都要执行}
调整内核的arp响应参数以阻止更新VIP的MAC地址,避免发生冲突
6.1、LVS/DR如何处理请求报文的,会修改IP包内容吗?
6.2、RealServer为什么要在lo接口上配置VIP?在出口网卡上配置VIP可以吗?
6.4、LVS/DR load balancer(director)与RS为什么要在同一网段中?
5、为什么director上eth0接口除了VIP另外还要配一个ip(即DIP)?
6、director的vip的netmask一定要是255.255.255.255吗?
LVS-DR(Linux Virtual Server Director Server)工作模式,是生产环境中最常用的一种工作模式
- 客户机发起请求,经过调度服务器(lvs),经过算法调度,去访问真实服务器(RS)
-
- 由于不原路返回,客户机不知道,真实主机的ip地址,
-
- 所以只能通过调度服务器的外网IP(vip)去放回报文信息
Director Server 作为集群的访问入口,但不作为网关使用,后端服务器池中的Real Server与Director Server在同一个物理网络中,发给客户机的数据包不需要经过Director Server。为了响应对整个集群的访问,DS(前端负载均衡节点服务器)与RS(后端真实服务器)都需要配置有VIP地址。
每个Real Server上都有两个IP:VIP(负载均衡对外提供访问的IP地址)和RIP(负载均衡后端的真实服务器IP地址),但是VIP是隐藏的,就是不难提供解析等功能,只是用来做请求回复的源IP的,Director上只需要一个网卡,然后利用别名来配置两个IP:VIP和DIP(负载均衡与后端服务器通信的IP地址),在DIR接收到客户端的请求后。DIR根据负载均衡算法选择一台rs server的网卡mac作为客户端请求包中的目标mac,通过arp转交给后端rs server处理,后端在通过自己的网关回复给客户端。

数据流向分析
负载均衡器只负责将请求包分发给物理服务器,而物理服务器将应答包直接分发给用户。所以,负责均衡器能处理很巨大的请求量,这种方式,一台负载均衡能为超过100台物理服务器服务,负载均衡器不再是系统的瓶颈。使用VS-DR方式,如果你的负载均衡器拥有100M的全双工网卡的话,就能使得整个Virtual Server能达到1G的吞吐量。甚至更高;
这种方式需要所有的DIR和RIP都在同一广播域;不支持异地容灾。
在LVS-DR负载均衡集群中,负载均衡与节点服务器都要配置相同的VIP地址,在局域网中具有相同的IP地址。势必会造成各服务器ARP通信的紊乱
Real Server返回报文(源IP是VIP)经路由器转发,重新封装报文时,需要先获取路由器的MAC地址,发送ARP请求时,Linux默认使用IP包的源IP地址(VIP)作为ARP请求包中的源IP地址,而不使用发送接口的IP地址,路由器收到ARP请求后,将更新ARP表项,原有的VIP对应Director的MAC地址会被更新为VIP对应的Real Server的MAC地址。路由器根据ARP表项,会将新来的请求报文转发给Real Server,导致Director的VIP失效
对节点服务器进行处理,设置内核参数arp_announce=2:系统不使用IP包的源地址来设置ARP请求的源地址,而选择发送接口的IP地址
- 路由器上绑定了真实服务器1的mac信息
- 请求到达真实服务器
- 在真实服务器上修改内核参数
- 只对所有服务器真实网卡上的地址进行反馈,解析
实验准备
- DR服务器:192.168.59.11
- web1:192.168.59.12
- web2:192.168.59.13
- vip(虚拟回环):192.168.59.100
- NFS服务器:192.168.59.14
- 客户端:192.168.59.90
因为是在内网环境中所以我们需要关闭防火墙和配置本地yum仓库
- ########关闭防火墙############
- #!/bin/bash
- systemctl stop firewalld
- systemctl disable firewalld
- setenforce 0
- #######yum仓库#########
- mount /dev/cdrom /mnt
- mkdir /etc/yum.repos.d/bak
- mv /etc/yum.repos.d/*.repo /etc/yum.repos.d/bak
- touch /etc/yum.repos.d/local.repo
- echo "
- [local]
- name=local
- baseurl=file:///mnt
- enabled=1
- gpgcheck=0
- " > /etc/yum.repos.d/local.repo
- yum cleam all
- yum makecache
要在每台内网服务器中执行!(下图是执行完效果)

yum -y install ipvsadm

cd /etc/sysconfig/network-scripts/
cp ifcfg-ens33 ifcfg-ens33:0
vim ifcfg-ens33:0

ifup ens33:0
ifconfig

对于DR集群模式来说,由于LVS负载调度器和各节点需要共用VIP地址,一个关闭Linux内核的重定向参数响应服务器部署一台路由器,那么它不会发送重定向,所以可以关闭该功能。
vim /etc/sysctl.conf
net.ipv4.ip_forward = 0 #关闭路由转发功能
net.ipv4.conf.all.send_redirects = 0 #下面都是关闭内核重定向功能
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0


ipvsadm -C
ipvsadm -A -t 192.168.59.100:80 -s rr
ipvsadm -a -t 192.168.59.100:80 -r 192.168.59.12:80 -g
ipvsadm -a -t 192.168.59.100:80 -r 192.168.59.13:80 -g
ipvsadm
ipvsadm-save > /etc/sysconfig/ipvsadm

部署前执行上面脚本关闭防火墙并配置本地yum仓库
yum -y install nfs-utils rpcbind
systemctl start nfs
systemctl start rpcbind

mkdir /opt/db1 /opt/db2
chmod 777 /opt/db1 /opt/db2

echo "i am web1" > /opt/db1/index.html
echo "i am web2" > /opt/db2/index.html

vim /etc/exports
- /opt/db1 192.168.59.0/24(rw,sync)
- /opt/db2 192.168.59.0/24(rw,sync)
exportfs -rv

配置前要执行上面脚本哦
此地址仅作为发送web响应数据包的源地址,并不需要监听客户机的访问请求(改由调度器监听并分发)。因此实验虚接口lo:0来承担VIP地址,并为本机添加一条路由记录,将访问VIP的数据限制在本地,以避免通讯紊乱。
cd /etc/sysconfig/network-scripts/
cp ifcfg-lo ifcfg-lo:0
vim ifcfg-lo:0
- IPADDR=192.168.59.100
- NETMASK=255.255.255.255 #子网掩码必须全为1
- DEVICE=lo:0
- ONBOOT=yes
ifup lo:0
ifconfig lo:0
route add -host 192.168.59.100 dev lo:0

vim /etc/rc.local
/sbin/route add -host 192.168.59.100 dev lo:0
chmod +x /etc/rc.d/rc.local
vim /etc/sysctl.conf
- net.ipv4.conf.all.arp_ignore = 1
- net.ipv4.conf.all.arp_announce = 2
- net.ipv4.conf.default.arp_ignore = 1
- net.ipv4.conf.default.arp_announce = 2
- net.ipv4.conf.lo.arp_ignore = 1
- net.ipv4.conf.lo.arp_announce = 2
sysctl -p #立即生效

yum -y install nfs rpcbind http

web1
systemctl start rpcbind httpd nfs
mount.nfs 192.168.59.14:/opt/db1 /var/www/html
df -hT

web2
systemctl start rpcbind httpd nfs
mount.nfs 192.168.59.14:/opt/db2 /var/www/html
df -hT

我们用一台win(net1网卡的)


测试成功

我们在访问的时候可能会出现这种情况,这时因为我们配置了本地yum源而导致的
我们只需要找到问题主机的httpd.conf文件
vim /etc/httpd/conf/httpd.conf

将其注释就行了。
vs/dr本身不会关心IP层以上的信息,即使是端口号也是tcp/ip协议栈去判断是否正确,vs/dr本身主要做这么几个事:
接收client的请求,根据你设定的负载均衡算法选取一台realserver的ip;
以选取的这个ip对应的mac地址作为目标mac,然后重新将IP包封装成帧转发给这台RS;
在hash table中记录连接信息。
vs/dr做的事情很少,也很简单,所以它的效率很高,不比硬件负载均衡设备差多少,数据包、数据帧的大致流向是这样的:client –> VS –> RS –> client。
既然要让RS能够处理目标地址为vip的IP包,首先必须要让RS能接收到这个包。在lo上配置vip能够完成接收包并将结果返回client。不可以将VIP设置在出口网卡上,否则会响应客户端的arp request,造成client/gateway arp table紊乱,以至于整个load balance都不能正常工作。
我们知道仰制arp帧需要在server上执行以下命令,如下:
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
1
2
3
4
因为arp对逻辑口没有意义。实际上起作用的只有以下两条:
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
1
2
即对所有的物理网卡设置arp仰制。对仰制所有的物理网卡设置arp仰制是为了让CIP发送的请求顺利转交给DIR以及防止整个LVS环境arp表混乱,不然容易导致整个lvs不能工作。
lvs/dr它是在数据链路层来实现的,即RIP必须能够接受到DIR的arp请求,如果不在同一网段则会隔离arp,这样arp请求就不能转发到指定的RIP上,所以director必须和RS在同一网段里面。
如果是用了keepalived等工具做HA或者Load Balance,则在健康检查时需要用到DIP。 没有健康检查机制的HA或者Load Balance则没有存在的实际意义。
lvs/dr里,director的vip的netmask 没必要设置为255.255.255.255,director的vip本来就是要像正常的ip地址一样对外通告的,不要搞得这么特殊。
因为“负载调度机”转发时并不会改写数据包的目的IP,所以“节点服务器”收到的数据包的目的IP仍是“负载调度器”的虚拟服务IP。为了保证“节点服务器”能够正确处理该数据包,而不是丢弃,必须在“节点服务器”的环回网卡上绑定“负载调度器”的虚拟服务IP。这样“节点服务器”会认为这个虚拟服务IP是自己的IP,自己是能够处理这个数据包的。否则“节点服务器”会直接丢弃该数据包!
“节点服务器”上的业务进程必须监听在环回网卡的虚拟服务IP上,且端口必须和“负载调度机”上的虚拟服务端口一致。因为“负载调度机”不会改写数据包的目的端口,所以“节点服务器”服务的监听端口必须和虚拟服务端口一致,否则“节点服务器”会直接拒绝该数据包。
“节点服务器”处理完请求后,响应直接回给客户端,不再经过“负载调度机”。因为“节点服务器”收到的请求数据包的源IP是客户端的IP,所以理所当然“节点服务器”的响应会直接回给客户端,而不会再经过“负载调度机”。这时候要求“节点服务器”和客户端之间的网络是可达的。
“负载调度机”和“节点服务器”须位于同一个子网。因为“负载调度机”在转发过程中需要改写数据包的MAC为“节点服务器”的MAC地址,所以要能够查询到“节点服务器”的MAC。而要获取到“节点服务器”的MAC,则需要保证二者位于一个子网,否则“负载调度机”只能获取到“节点服务器”网关的MAC地址。