• LVS部署-DR集群


    目录

    一、LVS-DR工作原理

    二、LVS-DR数据流向

    三、DR模式特点即优缺点

    3.1、DR模式特点

    3.2、LVS-DR的优缺点

    优点:

    缺点:

    四、ARP解析问题

    4.1、问题一:IP地址冲突

    解决方法:

    4.2、问题二:第二次再有访问请求

    解决方法:

    五、部署LVS-DR集群

     5.1、配置负载调度器lvs(192.168.59.11)

    安装ipvsadm工具

     配置虚拟IP地址(vip:192.168.59.100)

    调整内核(proc)响应参数

    配置负载分配

    5.2、部署共享存储(NFS服务器:192.168.59.14)

    安装nfs和rpcbind

    创建共享目录并设置权限

    输入页面内容

    设置共享目录并发布共享

    5.3、配置节点服务器(web1,web2)

    配置虚拟IP地址(vip:192.168.59.100){web1和web2都要执行}

     启动lo:0网卡,添加VIP本地访问路由

    设置系统自动识别,并设置执行权限

    调整内核的arp响应参数以阻止更新VIP的MAC地址,避免发生冲突

     安装nfs、rpcbind和httpd服务

     注意web2和以上操作一样

    开启相关服务,并挂载分享端的内容

     5.4、开始测试

    可能出现的报错

    六、LVS-DR问题总结

    6.1、LVS/DR如何处理请求报文的,会修改IP包内容吗?

    6.2、RealServer为什么要在lo接口上配置VIP?在出口网卡上配置VIP可以吗?

    6.3、RealServer为什么要抑制arp帧?

    6.4、LVS/DR load balancer(director)与RS为什么要在同一网段中?

    5、为什么director上eth0接口除了VIP另外还要配一个ip(即DIP)?

    6、director的vip的netmask一定要是255.255.255.255吗?

    7、RS设置lo:0而不设置ens33:0的原因


    一、LVS-DR工作原理

    LVS-DR(Linux Virtual Server Director Server)工作模式,是生产环境中最常用的一种工作模式

    • LVS-DR模式,Director Server 作为集群的访问入口,不作为网关使用
    • 节点Director Server与Real Server需要在同一个网络中,返回给客户端的数据不需要经过Director Server。
    • 为了响应对整个集群的访问,Director Server与Real Server都需要配置VIP地址
      1. 客户机发起请求,经过调度服务器(lvs),经过算法调度,去访问真实服务器(RS)
      2. 由于不原路返回,客户机不知道,真实主机的ip地址,
      3. 所以只能通过调度服务器的外网IP(vip)去放回报文信息

            Director Server 作为集群的访问入口,但不作为网关使用,后端服务器池中的Real Server与Director Server在同一个物理网络中,发给客户机的数据包不需要经过Director Server。为了响应对整个集群的访问,DS(前端负载均衡节点服务器)与RS(后端真实服务器)都需要配置有VIP地址。

            每个Real Server上都有两个IP:VIP(负载均衡对外提供访问的IP地址)和RIP(负载均衡后端的真实服务器IP地址),但是VIP是隐藏的,就是不难提供解析等功能,只是用来做请求回复的源IP的,Director上只需要一个网卡,然后利用别名来配置两个IP:VIP和DIP(负载均衡与后端服务器通信的IP地址),在DIR接收到客户端的请求后。DIR根据负载均衡算法选择一台rs server的网卡mac作为客户端请求包中的目标mac,通过arp转交给后端rs server处理,后端在通过自己的网关回复给客户端。

    二、LVS-DR数据流向

    数据流向分析

    • 用户发送请求到Director Server,请求的数据报文(源IP是CIP(客户端IP),目标IP是VIP)到达内核空间
    • 由于DS和RS在用一个网络中,所以是通过二层数据链路层来传输
    • 内核空间判断数据包的目标IP是本机IP,此时IPVS比对数据包请求的服务是否为集群服务,若是,重新封装数据包,修改源MAC地址为DIP的MAC地址,目标MAC地址为RIP的MAC地址,源IP地址与目标IP地址没有改变,然后将数据包发送给Real Server
    • RS发现请求报文的MAC地址是自己的MAC地址,就接收此报文,重新封装报文(源IP地址为VIP,目标IP为CIP)将响应报文通过io传送给ens33网卡然后向外发出。
    • RS直接将响应报文传送到客户端

    三、DR模式特点即优缺点

    3.1、DR模式特点

    • Director Server和Real Server必须在同一个物理网络中
    • Real Server可以使用私有地址,也可以使用公网地址。如果使用公网地址,可以通过互联网对RIP进行直接访问
    • Director Server作为集群的访问入口,但不能作为网关使用。
    • 所有的请求报文经由Director Server IP,即Real Server发送的数据包不允许经过Director Server。
    • Real Server上的io接口配置VIP的IP地址

    3.2、LVS-DR的优缺点

    优点:

    负载均衡器只负责将请求包分发给物理服务器,而物理服务器将应答包直接分发给用户。所以,负责均衡器能处理很巨大的请求量,这种方式,一台负载均衡能为超过100台物理服务器服务,负载均衡器不再是系统的瓶颈。使用VS-DR方式,如果你的负载均衡器拥有100M的全双工网卡的话,就能使得整个Virtual Server能达到1G的吞吐量。甚至更高;

    缺点:

    这种方式需要所有的DIR和RIP都在同一广播域;不支持异地容灾。

    四、ARP解析问题

    4.1、问题一:IP地址冲突

    在LVS-DR负载均衡集群中,负载均衡与节点服务器都要配置相同的VIP地址,在局域网中具有相同的IP地址。势必会造成各服务器ARP通信的紊乱

    • 当arp广播发送到LVS-DR集群时,因为负载均衡器和节点服务器都是连接到相同的网络上,它们都会接收到ARP广播
    • 只有前端的负载均衡器进行响应,其他节点服务器不应该响应ARP广播

    解决方法:

    • 对节点服务器进行处理,使其不响应针对VIP的ARP请求
    • 用虚接口lo:0承载VIP地址
    • 设置内核参数arp_ignore=1:系统只响应目的IP为本地IP(真实网卡IP)的ARP请求

    4.2、问题二:第二次再有访问请求

    Real Server返回报文(源IP是VIP)经路由器转发,重新封装报文时,需要先获取路由器的MAC地址,发送ARP请求时,Linux默认使用IP包的源IP地址(VIP)作为ARP请求包中的源IP地址,而不使用发送接口的IP地址,路由器收到ARP请求后,将更新ARP表项,原有的VIP对应Director的MAC地址会被更新为VIP对应的Real Server的MAC地址。路由器根据ARP表项,会将新来的请求报文转发给Real Server,导致Director的VIP失效

    解决方法:

    对节点服务器进行处理,设置内核参数arp_announce=2:系统不使用IP包的源地址来设置ARP请求的源地址,而选择发送接口的IP地址

    1. 路由器上绑定了真实服务器1的mac信息
    2. 请求到达真实服务器
    3. 在真实服务器上修改内核参数
    4. 只对所有服务器真实网卡上的地址进行反馈,解析

    五、部署LVS-DR集群

    实验准备

    1. DR服务器:192.168.59.11
    2. web1192.168.59.12
    3. web2192.168.59.13
    4. vip(虚拟回环):192.168.59.100
    5. NFS服务器:192.168.59.14
    6. 客户端:192.168.59.90

    因为是在内网环境中所以我们需要关闭防火墙和配置本地yum仓库

    1. ########关闭防火墙############
    2. #!/bin/bash
    3. systemctl stop firewalld
    4. systemctl disable firewalld
    5. setenforce 0
    6. #######yum仓库#########
    7. mount /dev/cdrom /mnt
    8. mkdir /etc/yum.repos.d/bak
    9. mv /etc/yum.repos.d/*.repo /etc/yum.repos.d/bak
    10. touch /etc/yum.repos.d/local.repo
    11. echo "
    12. [local]
    13. name=local
    14. baseurl=file:///mnt
    15. enabled=1
    16. gpgcheck=0
    17. " > /etc/yum.repos.d/local.repo
    18. yum cleam all
    19. yum makecache

    要在每台内网服务器中执行!(下图是执行完效果)

     5.1、配置负载调度器lvs(192.168.59.11)

    安装ipvsadm工具

    yum -y install ipvsadm

     配置虚拟IP地址(vip:192.168.59.100)

    cd /etc/sysconfig/network-scripts/

    cp ifcfg-ens33 ifcfg-ens33:0

    vim ifcfg-ens33:0

    ifup ens33:0

    ifconfig

    调整内核(proc)响应参数

    对于DR集群模式来说,由于LVS负载调度器和各节点需要共用VIP地址,一个关闭Linux内核的重定向参数响应服务器部署一台路由器,那么它不会发送重定向,所以可以关闭该功能。

    vim /etc/sysctl.conf

    net.ipv4.ip_forward = 0  #关闭路由转发功能

    net.ipv4.conf.all.send_redirects = 0 #下面都是关闭内核重定向功能

    net.ipv4.conf.default.send_redirects = 0

    net.ipv4.conf.ens33.send_redirects = 0

    配置负载分配

    ipvsadm -C

    ipvsadm -A -t 192.168.59.100:80 -s rr

    ipvsadm -a -t 192.168.59.100:80 -r 192.168.59.12:80 -g

    ipvsadm -a -t 192.168.59.100:80 -r 192.168.59.13:80 -g

    ipvsadm

    ipvsadm-save > /etc/sysconfig/ipvsadm

    5.2、部署共享存储(NFS服务器:192.168.59.14)

    部署前执行上面脚本关闭防火墙并配置本地yum仓库

    安装nfs和rpcbind

    yum -y install nfs-utils rpcbind

    systemctl start nfs

    systemctl start rpcbind

    创建共享目录并设置权限

    mkdir /opt/db1 /opt/db2

    chmod 777 /opt/db1 /opt/db2

    输入页面内容

    echo "i am web1" > /opt/db1/index.html
    echo "i am web2" > /opt/db2/index.html

    设置共享目录并发布共享

    vim /etc/exports

    1. /opt/db1 192.168.59.0/24(rw,sync)
    2. /opt/db2 192.168.59.0/24(rw,sync)

    exportfs -rv

     

    5.3、配置节点服务器(web1,web2)

    配置前要执行上面脚本哦

    配置虚拟IP地址(vip:192.168.59.100){web1和web2都要执行}

    此地址仅作为发送web响应数据包的源地址,并不需要监听客户机的访问请求(改由调度器监听并分发)。因此实验虚接口lo:0来承担VIP地址,并为本机添加一条路由记录,将访问VIP的数据限制在本地,以避免通讯紊乱。

    cd /etc/sysconfig/network-scripts/

    cp ifcfg-lo ifcfg-lo:0
    vim ifcfg-lo:0

    1. IPADDR=192.168.59.100
    2. NETMASK=255.255.255.255 #子网掩码必须全为1
    3. DEVICE=lo:0
    4. ONBOOT=yes

     启动lo:0网卡,添加VIP本地访问路由

    ifup lo:0

    ifconfig lo:0

    route add -host 192.168.59.100 dev lo:0

    设置系统自动识别,并设置执行权限

    vim /etc/rc.local

    /sbin/route add -host 192.168.59.100 dev lo:0

    chmod +x /etc/rc.d/rc.local

    调整内核的arp响应参数以阻止更新VIP的MAC地址,避免发生冲突

    vim /etc/sysctl.conf

    1. net.ipv4.conf.all.arp_ignore = 1
    2. net.ipv4.conf.all.arp_announce = 2
    3. net.ipv4.conf.default.arp_ignore = 1
    4. net.ipv4.conf.default.arp_announce = 2
    5. net.ipv4.conf.lo.arp_ignore = 1
    6. net.ipv4.conf.lo.arp_announce = 2

     sysctl -p  #立即生效

     安装nfs、rpcbind和httpd服务

    yum -y install nfs rpcbind http

     注意web2和以上操作一样

    开启相关服务,并挂载分享端的内容

    web1

    systemctl start rpcbind httpd nfs

    mount.nfs 192.168.59.14:/opt/db1 /var/www/html

    df -hT

    web2

    systemctl start rpcbind httpd nfs

    mount.nfs 192.168.59.14:/opt/db2 /var/www/html

    df -hT

     5.4、开始测试

    我们用一台win(net1网卡的)

    测试成功

    可能出现的报错

    8ea164ab57094606ae069c226e13ee48.png

     我们在访问的时候可能会出现这种情况,这时因为我们配置了本地yum源而导致的

    我们只需要找到问题主机的httpd.conf文件

    vim /etc/httpd/conf/httpd.conf 

    f72ae94fab7e4455bcb7b018805adc1b.png

     将其注释就行了。

    六、LVS-DR问题总结

    6.1、LVS/DR如何处理请求报文的,会修改IP包内容吗?

    vs/dr本身不会关心IP层以上的信息,即使是端口号也是tcp/ip协议栈去判断是否正确,vs/dr本身主要做这么几个事:

    接收client的请求,根据你设定的负载均衡算法选取一台realserver的ip;
    以选取的这个ip对应的mac地址作为目标mac,然后重新将IP包封装成帧转发给这台RS;
    在hash table中记录连接信息。
    vs/dr做的事情很少,也很简单,所以它的效率很高,不比硬件负载均衡设备差多少,数据包、数据帧的大致流向是这样的:client –> VS –> RS –> client。

    6.2、RealServer为什么要在lo接口上配置VIP?在出口网卡上配置VIP可以吗?

    既然要让RS能够处理目标地址为vip的IP包,首先必须要让RS能接收到这个包。在lo上配置vip能够完成接收包并将结果返回client。不可以将VIP设置在出口网卡上,否则会响应客户端的arp request,造成client/gateway arp table紊乱,以至于整个load balance都不能正常工作。

    6.3、RealServer为什么要抑制arp帧?

    我们知道仰制arp帧需要在server上执行以下命令,如下:

    echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
    echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
    echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
    echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
    1
    2
    3
    4
    因为arp对逻辑口没有意义。实际上起作用的只有以下两条:

    echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
    echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
    1
    2
    即对所有的物理网卡设置arp仰制。对仰制所有的物理网卡设置arp仰制是为了让CIP发送的请求顺利转交给DIR以及防止整个LVS环境arp表混乱,不然容易导致整个lvs不能工作。

    6.4、LVS/DR load balancer(director)与RS为什么要在同一网段中?

    lvs/dr它是在数据链路层来实现的,即RIP必须能够接受到DIR的arp请求,如果不在同一网段则会隔离arp,这样arp请求就不能转发到指定的RIP上,所以director必须和RS在同一网段里面。

    5、为什么director上eth0接口除了VIP另外还要配一个ip(即DIP)?

    如果是用了keepalived等工具做HA或者Load Balance,则在健康检查时需要用到DIP。 没有健康检查机制的HA或者Load Balance则没有存在的实际意义。

    6、director的vip的netmask一定要是255.255.255.255吗?

    lvs/dr里,director的vip的netmask 没必要设置为255.255.255.255,director的vip本来就是要像正常的ip地址一样对外通告的,不要搞得这么特殊。

    7、RS设置lo:0而不设置ens33:0的原因

    因为“负载调度机”转发时并不会改写数据包的目的IP,所以“节点服务器”收到的数据包的目的IP仍是“负载调度器”的虚拟服务IP。为了保证“节点服务器”能够正确处理该数据包,而不是丢弃,必须在“节点服务器”的环回网卡上绑定“负载调度器”的虚拟服务IP。这样“节点服务器”会认为这个虚拟服务IP是自己的IP,自己是能够处理这个数据包的。否则“节点服务器”会直接丢弃该数据包!

    “节点服务器”上的业务进程必须监听在环回网卡的虚拟服务IP上,且端口必须和“负载调度机”上的虚拟服务端口一致。因为“负载调度机”不会改写数据包的目的端口,所以“节点服务器”服务的监听端口必须和虚拟服务端口一致,否则“节点服务器”会直接拒绝该数据包。

    “节点服务器”处理完请求后,响应直接回给客户端,不再经过“负载调度机”。因为“节点服务器”收到的请求数据包的源IP是客户端的IP,所以理所当然“节点服务器”的响应会直接回给客户端,而不会再经过“负载调度机”。这时候要求“节点服务器”和客户端之间的网络是可达的。

    “负载调度机”和“节点服务器”须位于同一个子网。因为“负载调度机”在转发过程中需要改写数据包的MAC为“节点服务器”的MAC地址,所以要能够查询到“节点服务器”的MAC。而要获取到“节点服务器”的MAC,则需要保证二者位于一个子网,否则“负载调度机”只能获取到“节点服务器”网关的MAC地址。
     

  • 相关阅读:
    System Verilog 视频缩放图像缩放 vivado 仿真
    泛微移动端数据库 :H2数据库
    win10电脑插入耳机,右边耳机声音比左边小很多
    头歌平台-MongoDB 之滴滴、摩拜都在用的索引
    RabbitMQ详情
    【OceanBase系列】—— 常用 SQL
    C++ 基础二
    【2023集创赛】安谋科技杯全国一等奖分享:基于安路PH1A60的3D图形体感游戏机
    [Python学习笔记]Requests性能优化之Session
    变量声明方式的一些思考
  • 原文地址:https://blog.csdn.net/qq_57377057/article/details/126727143