• 【集群】LVS+Keepalived群集



    前言

      在这个高度信息化的 IT 时代,企业的生产系统、业务运营、销售和支持,以及日常管理等环节越来越依赖于计算机信息和服务,对高可用(HA)技术的应用需求不断提高,以便提供持续的、不间断的计算机系统或网络服务。


    一、Keepalived的概念

    1. Keepalived 概述

      Keeplived是一款专为LVS和HA设计的健康检查工具。主要支持故障自动切换(Failover)和支持节点健康状态检查(Health Checking)。官方网站: http://www.keepalived.org/

    2. Keepalived 作用

      判断LVS负载调度器、节点服务器的可用性,当master主机出现故障及时切换到backup节点保证业务正常,当master故障主机恢复后将其重新加入群集并且业务重新切换回master节点。

    3. Keepalived 实现原理剖析

    3.1 Keepalived 工作原理

      Keepalived是一个基于VRRP热备份协议来实现服务高可用方案,可用解决静态路由器的单点故障问题。

      在一个LVS服条集群中通常有主服条器(MASTER)和备份服务器(BACKUP)两种角色的服务器,但是对外表现为一个虚拟IP(VIP),主服务器会发送VRRP通告信息给备份服务器,当备份服务器收不到VRRP消息的时候,即主服务器异常的时候,备份服务器就会接管虚拟IP,继续提供服务,从而保证了高可用性。

    在这里插入图片描述

    3.1 VRRP协议(虚拟路由冗余协议)

      VRRP是一种容错协议,它通过把几台路由设备联合组成一台虚拟的路由设备,并通过一定的机制来保证当主机的下一跳设备出现故障时,可以及时将业务切换到其它设备,从而保持通讯的连续性和可靠性。

      VRRP将局域网内的一组路由器划分在一起,称为一个备份组。备份组由一个Master路由器和多个Backup路由器组成,功能上相当于一台虚拟路由器。局域网内的主机只需要知道这个虚拟路由器的IP地址,并不需知道具体某台设备的IP地址,将网络内主机的缺省网关设置为该虚拟路由器的IP地址,主机就可以利用该虚拟网关与外部网络进行通信。

      VRRP将该虚拟路由器动态关联到承担传输业务的物理路由器上,当该物理路由器出现故障时,再次选择新路由器来接替业务传输工作,整个过程对用户完全透明,实现了内部网络和外部网络不间断通信。

    4. Keepalived 主要模块及其作用

    keepalived体系架构中主要有三个模块,分别是core、check和vrrp。

    • core模块:为keepalived的核心,负责主进程的启动、维护及全局配置文件的加载和解析。
    • vrrp模块:是来实现VRRP协议的。(调度器之间的健康检查和主备切换)
    • check模块:负责健康检查,常见的方式有端口检查及URL检查。(节点服务器的健康检查)

    4.1 健康检查方式(学名:探针)

      发送心跳信息。例如ping/pong命令等等。

      TCP端口检查。例如向一台主机的IP:PROT发送TCP三次握手连接。

      HTTP URL检查。例如向一台主机的http://IP+PROT/...URL路径发送HTTP GET{}请求方法,主机响应返回2xx或者3xx为正常,若响应返回4xx或者5xx则认为健康检查异常。

    5. 脑裂的形成和解决(重要)

    5.1 什么是脑裂

      脑裂(split-brain):指在一个高可用(HA)系统中,当联系着的两个节点断开联系时,本来为一个整体的系统,分裂为两个独立节点,这时两个节点开始争抢共享资源,结果会导致系统混乱,数据损坏。

      对于无状态服务的HA,无所谓脑裂不脑裂;但对有状态服务(比如MySQL)的HA,必须要严格防止脑裂。

    5.2 脑裂的形成

      Master一直发送心跳消息给backup主机,如果中间的链路突然断掉,backup主机将无法收到master主机发送过来的心跳消息(也就是vrrp报文),backup这时候会立即抢占master的工作,但其实这时候的master是正常工作的,此时就会出现脑裂的现象。

    5.3 预防脑裂的发生

    • 使用shell脚本对这两个主机之间的连通性进行监测,如果发现有问题,就会立即关闭keepalived服务来防止脑裂的产生。
    • 增加一条链路作为备用链路,即使主链路挂掉了,备用链路也会顶上来,master主机可以继续给backup主机发送心跳消息。
    • 使用监控软件的方法,这边主要是采用的zabbix来监控的,主要就是创建监控项,创建触发器来测试关闭keepalived服务。
    ###主调度器
    ###判断主从调度器之间链路是否断连
    ping -c 3 -i 0.5 -w 2 192.168.145.30 &> /dev/null 
    
    if [ $? -ne 0 ];then
      ssh 192.168.145.75 ping -c 3 -i 0.5 -w 2 -I 192.168.145.75 192.168.145.30  &> /dev/null 
      if [ $? -eq 0 ];then
          systemctl stop keepalived
      fi
    fi
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    二、LVS+Keepalived 高可用集群部署

    1. 环境部署

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-F5lYh6uF-1686449748780)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230609201942660.png)]

    主DR 服务器:192.168.145.15
    备DR 服务器:192.168.145.30
    Web 服务器1:192.168.145.45
    Web 服务器2:192.168.145.60
    vip:192.168.145.20
    客户端:192.168.145.75
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    2. LVS 部署

    2.1 配置负载调度器(主、备相同)

    [root@localhost ~]# systemctl stop firewalld.service
    [root@localhost ~]# setenforce 0
    [root@localhost ~]# yum -y install ipvsadm keepalived
    ###加载ip_vs模块
    [root@localhost ~]# modprobe ip_vs
    ###查看ip_vs版本信息
    [root@localhost ~]# cat /proc/net/ip_vs
    IP Virtual Server version 1.2.1 (size=4096)
    Prot LocalAddress:Port Scheduler Flags
      -> RemoteAddress:Port Forward Weight ActiveConn InActConn
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    (1)配置keeplived(主、备DR 服务器上都要设置)

    [root@localhost ~]#cd /etc/keepalived/
    [root@localhost keepalived]# cp keepalived.conf keepalived.conf.bak
    [root@localhost keepalived]# vim keepalived.conf
    ......
    ###定义全局参数
    global_defs {						
    ###--10行--修改,邮件服务指向本地
    	smtp_server 127.0.0.1
    ###--12行--修改,指定服务器(路由器)的名称,主备服务器名称须不同,主为LVS_01,备为LVS_02
    	router_id LVS_01
    ###--14行到18行,注释掉,取消严格遵守VRRP协议功能,否则VIP无法被连接
    	#vrrp_strict
    }
    
    ###定义VRRP热备实例参数
    vrrp_instance VI_1 {				
    ###--20行--修改,指定热备状态,主为MASTER,备为BACKUP
        state MASTER
    ###--21行--修改,指定承载vip地址的物理接口
        interface ens33
    ###--22行--修改,指定虚拟路由器的ID号,每个热备组保持一致	
        virtual_router_id 10
    	#nopreempt						#如果设置非抢占模式,两个节点state必须为BACKUP,并加上配置 nopreempt
    ###--23行--修改,指定优先级,数值越大优先级越高,这里设置主为100,备为90
        priority 100
        advert_int 1					#通告间隔秒数(心跳频率)
        authentication {				#定义认证信息,每个热备组保持一致
    		auth_type PASS				#认证类型
    ###--27行--修改,指定验证密码,主备服务器保持一致
            auth_pass abc123
        }
        virtual_ipaddress {				#指定群集vip地址
            192.168.145.20
        }
    }
    ###--36行--修改,指定虚拟服务器地址(VIP)、端口,定义虚拟服务器和Web服务器池参数
    virtual_server 192.168.145.20 80 {
        delay_loop 6					#健康检查的间隔时间(秒)
        lb_algo rr						#指定调度算法,轮询(rr)
    ###--39行--修改,指定群集工作模式,直接路由(DR)
        lb_kind DR
        persistence_timeout 0			#连接保持时间(秒)
        protocol TCP					#应用服务采用的是 TCP协议
    ###--43行--修改,指定第一个Web节点的地址、端口
        real_server 192.168.145.45 80 {
            weight 1					#节点的权重
    ###--45行--删除,添加以下健康检查方式		
            TCP_CHECK {
    			connect_port 80			#添加检查的目标端口
    			connect_timeout 3		#添加连接超时(秒)
    			nb_get_retry 3			#添加重试次数
    			delay_before_retry 3	#添加重试间隔
    		}
    	}
    
    	real_server 192.168.145.60 80 {		#添加第二个 Web节点的地址、端口
            weight 1
            TCP_CHECK {
    			connect_port 80
    			connect_timeout 3
    			nb_get_retry 3
    			delay_before_retry 3
    		}
    	}
    ##删除后面多余的配置##
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64
    • 65
    • 66
    [root@localhost keepalived]# systemctl start keepalived
    [root@localhost keepalived]# ip addr
    1: lo:  mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
        link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
        inet 127.0.0.1/8 scope host lo
           valid_lft forever preferred_lft forever
        inet6 ::1/128 scope host 
           valid_lft forever preferred_lft forever
    2: ens32:  mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
        link/ether 00:0c:29:33:c5:93 brd ff:ff:ff:ff:ff:ff
        inet 192.168.145.15/24 brd 192.168.145.255 scope global noprefixroute ens32
           valid_lft forever preferred_lft forever
        inet 192.168.145.20/32 scope global ens32
           valid_lft forever preferred_lft forever
        inet6 fe80::fd54:3fb4:558d:82fb/64 scope link noprefixroute 
           valid_lft forever preferred_lft forever
    3: virbr0:  mtu 1500 qdisc noqueue state DOWN group default qlen 1000
        link/ether 52:54:00:e4:ec:73 brd ff:ff:ff:ff:ff:ff
        inet 192.168.122.1/24 brd 192.168.122.255 scope global virbr0
           valid_lft forever preferred_lft forever
    4: virbr0-nic:  mtu 1500 qdisc pfifo_fast master virbr0 state DOWN group default qlen 1000
        link/ether 52:54:00:e4:ec:73 brd ff:ff:ff:ff:ff:ff
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22

    (2)启动 ipvsadm 服务

    [root@localhost keepalived]# ipvsadm-save > /etc/sysconfig/ipvsadm
    [root@localhost keepalived]# systemctl start ipvsadm
    [root@localhost keepalived]# ipvsadm -ln
    IP Virtual Server version 1.2.1 (size=4096)
    Prot LocalAddress:Port Scheduler Flags
      -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
    TCP  127.0.0.1:80 rr
    TCP  192.168.145.20:80 rr
      -> 192.168.145.45:80            Route   1      0          0         
      -> 192.168.145.60:80            Route   1      0          0 
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    (3)调整 proc 响应参数,关闭Linux 内核的重定向参数响应

    [root@localhost ~]# vim /etc/sysctl.conf
    net.ipv4.conf.all.send_redirects = 0
    net.ipv4.conf.default.send_redirects = 0
    net.ipv4.conf.ens33.send_redirects = 0
    ###刷新
    [root@localhost ~]# sysctl -p
    net.ipv4.conf.all.send_redirects = 0
    net.ipv4.conf.default.send_redirects = 0
    net.ipv4.conf.ens32.send_redirects = 0
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    2.2 配置节点服务器

    (1)关闭防火墙,安装httpd服务

    [root@localhost ~]#[root@localhost ~]#systemctl stop firewalld
    [root@localhost ~]#setenforce 0
    
    [root@localhost ~]# yum -y install httpd
    [root@localhost ~]# systemctl start httpd
    
    • 1
    • 2
    • 3
    • 4
    • 5

    (2)设置访问网页

    ###--192.168.145.45---
    [root@localhost ~]# echo 'this is accp web!' > /var/www/html/index.html
    
    ###--192.168.145.60---
    [root@localhost ~]# echo 'this is benet web!' > /var/www/html/index.html
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    (3)网卡配置以及配置虚拟VIP地址

    [root@localhost ~]# vim /etc/sysconfig/network-scripts/ifcfg-lo:0
    DEVICE=lo:0
    ONBOOT=yes
    IPADDR=192.168.145.20
    ###注意:子网掩码必须全为 1
    NETMASK=255.255.255.255
    
    [root@localhost ~]#service network restart
    ###启动环回网卡
    [root@localhost ~]#ifup lo:0
    ###启动环回网卡
    [root@localhost ~]#ifconfig lo:0
    lo:0: flags=73  mtu 65536
            inet 192.168.145.20  netmask 255.255.255.255
            loop  txqueuelen 1000  (Local Loopback)
    [root@localhost ~]#route add -host 192.168.145.20 dev lo:0
    ###调整内核的 ARP 响应参数以阻止更新 VIP 的 MAC 地址,避免发生冲突
    [root@localhost ~]#vim /etc/sysctl.conf
    net.ipv4.conf.lo.arp_ignore = 1
    net.ipv4.conf.lo.arp_announce = 2
    net.ipv4.conf.all.arp_ignore = 1
    net.ipv4.conf.all.arp_announce = 2
    ###刷新
    [root@localhost ~]#sysctl -p
    net.ipv4.conf.lo.arp_ignore = 1
    net.ipv4.conf.lo.arp_announce = 2
    net.ipv4.conf.all.arp_ignore = 1
    net.ipv4.conf.all.arp_announce = 2
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28

    2.3 测试验证

    在客户端访问 http://192.168.145.20/ 
    再在主服务器关闭 keepalived 服务后再测试
    systemctl stop keepalived
    
    • 1
    • 2
    • 3

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-YFnLEk9B-1686449748780)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230609215948144.png)]

    三、常见问题

    1. Keepalived 通过什么判断哪台主机为主服务器,通过什么方式配置浮动IP?

      Keepalived首先做初始化先检查state状态,master为主服务器,backup为备服务器。

      然后再对比所有服务器的priority,谁的优先级高谁是最终的主服务器。

      优先级高的服务器会通过ip命令为自己的电脑配置一个提前定义好的浮动IP地址。

    2. keepalived 的抢占与非抢占模式

      抢占模式即MASTER从故障中恢复后,会将VIP从BACKUP节点中抢占过来。非抢占模式即MASTER恢复后不抢占BACKUP升级为MASTER后的VIP。

      非抢占式俩节点state必须为bakcup,且必须配置nopreempt

    [root@localhost ~]# vim /etc/keepalived/keepalived.conf
    vrrp_instance VI_1 {
    	state BACKUP
    	nopreempt
    	interface ens32
    	virtual router_id 51
    	priority 100
    	advert_int 1
    	authentication{
    		auth_type PASS
    		auth_pass 1111
    	}
    	virtual ipaddress {
    	192.168.80.188
    	}
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16

      注意:这样配置后,我们要注意启动服务的顺序,优先启动的获取master权限,与优先级没有关系了。

    四、Nginx+keepalived高可用集群部署

    在这里插入图片描述

    1. 环境部署

    主调度器
    192.168.145.15
    从调度器
    192.168.145.30
    vip地址
    192.168.145.20
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    2. Nginx 部署

    [root@localhost ~]# systemctl stop firewalld.service
    [root@localhost ~]# setenforce 0
    [root@localhost ~]# yum -y install ipvsadm keepalived
    ###加载ip_vs模块
    [root@localhost ~]# modprobe ip_vs
    ###查看ip_vs版本信息
    [root@localhost ~]# cat /proc/net/ip_vs
    IP Virtual Server version 1.2.1 (size=4096)
    Prot LocalAddress:Port Scheduler Flags
      -> RemoteAddress:Port Forward Weight ActiveConn InActConn
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    2.1 配置负载调度器(主、备相同)

    [root@localhost ~]# vim keepalived.conf
    ......
    global_defs {
    	smtp_server 127.0.0.1
    	router_id Nginx_01
    	#vrrp_strict
    }
    
    vrrp_script chk_nginx {
        ###指定监控脚本的路径
        script "/etc/keepalived/nginx_check.sh"
        ###检测的间隔时间
        interval 2
        ###权重
        weight 2
    }
    
    ###定义VRRP热备实例参数
    vrrp_instance VI_1 {				
    ###--20行--修改,指定热备状态,主为MASTER,备为BACKUP
        state MASTER
    ###--21行--修改,指定承载vip地址的物理接口
        interface ens33
    ###--22行--修改,指定虚拟路由器的ID号,每个热备组保持一致	
        virtual_router_id 10
    	#nopreempt						#如果设置非抢占模式,两个节点state必须为BACKUP,并加上配置 nopreempt
    ###--23行--修改,指定优先级,数值越大优先级越高,这里设置主为100,备为90
        advert_int 1					
        authentication {				
    		auth_type PASS
            auth_pass 1111
        }
        virtual_ipaddress {
            192.168.145.20
        }
         ###加载追踪模块
        track_script {                  
            chk_nginx
        }
    }
    
    ###检测nginx是否启动的脚本
    [root@localhost ~]# vim /etc/keepalived/nginx_check.sh
    #!/bin/bash
    if ! killall -0 nginx  &> /dev/null
    then
        systemctl stop keepalived
    fi
    
    ###给脚本添加执行权限
    [root@localhost ~]# chmod +x nginx_check.sh
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51

    2.2 配置Nginx四层负载均衡

      参考负载均衡博客

    3. 测试验证

    在客户端访问 http://192.168.145.20/ 
    再在主服务器关闭 nginx 服务后再测试,看keepalived服务是否同时关闭,VIP是否转移,再次启动
    
    • 1
    • 2

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Sfxr70Yh-1686449748781)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230611100723106.png)]

    五、总结

    1. 一个合格的集群应该具有的特性

    • 负载均衡:LVSNginxHaproxy
    • 给调度器/节点服务器健康检查:KeepalivedHeartbeat
    • 故障转移

    2. 脑裂相关问题

    脑裂的形成和如何预防脑裂

  • 相关阅读:
    C++(14):std::exchange
    leetcode:6251. 统计回文子序列数目【dp + 统计xy子序列出现的个数】
    Jmeter接口测试工具的一些使用小技巧
    Elasticsearch:使用 Streamlit、语义搜索和命名实体提取开发 Elastic Search 应用程序
    【用unity实现100个游戏之16】Unity程序化生成随机2D地牢游戏2(附项目源码)
    【黑猩猩算法】基于加权反对技术和贪婪搜索进化黑猩猩优化算法求解多模态工程问题附matlab代码
    建构小小虎丘园林,每个人都是设计师
    k8s 部署专业版 Thingsboard 集群
    Linux SSH免密登录
    java计算机毕业设计基于安卓/微信的农产品特产销售商城小程序 uniAPP
  • 原文地址:https://blog.csdn.net/datangda/article/details/131150540