简介
LVS(Linux Virtual Server)即Linux虚拟服务器,是由章文嵩博士主导的开源负载均衡项目,目前LVS已经被集成到Linux内核模块中。该项目在Linux内核中实现了基于IP的数据请求负载均衡调度方案,终端互联网用户从外部访问公司的外部负载均衡服务器,终端用户的Web请求会发送给LVS调度器,调度器根据自己预设的算法决定将该请求发送给后端的某台Web服务器,比如,轮询算法可以将外部的请求平均分发给后端的所有服务器,终端用户访问LVS调度器虽然会被转发到后端真实的服务器,但如果真实服务器连接的是相同的存储,提供的服务也是相同的服务,最终用户不管是访问哪台真实服务器,得到的服务内容都是一样的,整个集群对用户而言都是透明的。最后根据LVS工作模式的不同,真实服务器会选择不同的方式将用户需要的数据发送到终端用户,LVS工作模式分为NAT模式、TUN模式、以及DR模式。
目录
2. CIFS/SMB(Common Internet File System/Server Message Block):
系统性能扩展方式:
为解决某个特定问题将多台计算机组合起来形成的单个系统,分为三个类型:
服务等级协议:
SLA:服务等级协议(简称:SLA,全称:service level agreement)。是在一定开销下为保障服
务的性能和可用性,服务提供商与用户间定义的一种双方认可的协定。通常这个开销是驱动提供服
务质量的主要因素。在常规的领域中,总是设定所谓的三个9,四个9来进行表示,当没有达到这
种水平的时候,就会有一些列的惩罚措施,而运维,最主要的目标就是达成这种服务水平。
- 1年 = 365天 = 8760小时
- 90 = (1-90%)*365=36.5天
- 99 = 8760 * 1% = 87.6小时
- 99.9 = 8760 * 0.1% = 8760 * 0.001 = 8.76小时
- 99.99 = 8760 * 0.0001 = 0.876小时 = 0.876 * 60 = 52.6分钟
- 99.999 = 8760 * 0.00001 = 0.0876小时 = 0.0876 * 60 = 5.26分钟
- 99.9999= (1-99.9999%)*365*24*60*60=31秒
- #停机时间又分为两种,一种是计划内停机时间,一种是计划外停机时间,而运维则主要关注计划外停机时间。
分布式存储:Ceph,GlusterFS,FastDFS,MogileFS
分布式计算:hadoop,Spark
分布式常见应用:
单机结构:计算机系统中只有一台计算机处理所有的任务和数据,所有的计算资源都集中在这一台计算机上。这种结构的优点是简单易用、成本低廉,但是缺点是处理能力和存储容量有限,无法满足大规模数据处理和高并发访问的需求。
集群:同一个业务系统,部署在多台服务器上。集群中,每一台服务器实现的功能没有差别,数据和代码都是一样的。
分布式:一个业务被拆成多个子业务,或者本身就是不同的业务,部署在多台服务器上。分布式中,每一台服务器实现的功能是有差别的,数据和代码也是不一样的,分布式每台服务器功能加起来,才是完整的业务。
① 可扩展性:集群的横向扩展能力
② 可用性:无故障时间 (SLA service level agreement),避免单点故障
③ 性能:访问响应时间
④ 容量:单位时间内的最大并发吞吐量(C10K 并发问题)
硬件:
软件:
传输层(通用):DNAT 和 DPORT
应用层(专用):针对特定协议,常称为 proxy server
SNAT:让内网用户可以访问外网
DNAT:把内网服务共享到公网上,(外网用户可以访问企业内网服务)
session sticky:同一用户调度固定服务器
session replication:每台服务器拥有全部session(复制)
session server:专门的session服务器(server)
keepalived:vrrp协议(虚拟ip主备共用)
Ais:应用接口规范(开发考虑)
LVS:Linux Virtual Server,负载调度器,内核集成, 阿里的四层SLB(Server Load Balance)是基于LVS+keepalived实现。
第一层,负载调度器(Load Balancer或Director)
访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP(虚拟IP)地址,也称为群集IP地址。通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。
第二层,服务器池(Server Pool)
群集所提供的应用服务、由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池。
第三层,共享存储(Share Storage)
为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性共享存储可以使用 NAS设备,或者提供 NFS共享服务的专用服务器。
LVS(Linux Virtual Server)是一种基于Linux内核的负载均衡解决方案,它可以将用户请求分发到多个后端服务器上进行处理,以提高系统的可用性和可扩展性。LVS的工作原理可以分为以下几个步骤:
① 客户端向LVS发送请求,请求被LVS接收。
② LVS根据负载均衡算法选择一个后端服务器,将请求发送给后端服务器。
③ 后端服务器处理请求,并将结果返回给LVS。
④ LVS将结果返回给客户端。
① NAT(Network Address Translation)模式
将LVS主机和后端服务器之间的数据流量进行地址转换,以实现负载均衡和高可用性。具体来说,NAT模式需要在LVS主机和后端服务器之间建立一个虚拟IP地址,并将该IP地址的MAC地址配置到LVS主机上,然后将请求转发到后端服务器上,并将响应数据流量进行地址转换,使得请求和响应都能够正确地返回给客户端。
② DR(Direct Routing)模式
将LVS主机和后端服务器之间的数据流量直接路由到后端服务器上,以减少LVS主机的负载。具体来说,DR模式需要在LVS主机和后端服务器之间建立一个虚拟IP地址,然后将该IP地址的MAC地址配置到LVS主机上,使得LVS主机可以将请求转发到后端服务器上,而不需要对请求进行任何处理。这样可以大大提高LVS主机的吞吐量和处理能力。
③ TUN(Tunneling)模式
通过IP隧道技术,在LVS主机和后端服务器之间建立一个虚拟网络,以实现负载均衡和高可用性。具体来说,TUN模式需要在LVS主机和后端服务器之间建立一个虚拟IP地址,并将该IP地址的MAC地址配置到LVS主机上,然后通过IP隧道技术将请求和响应数据包封装在IP包中,以实现数据的传输和转发。
注意:每种架构都有其优缺点和适用场景,需要根据实际情况选择合适的架构。同时,LVS还可以与其他开源软件集成,如HAPRoxy、Keepalived等,以实现更高级的负载均衡和高可用性功能。
负载均衡的应用场景为高访问量的业务,提高应用程序的可用性和可靠性。
① 应用于高访问量的业务
如果您的应用访问量很高,可以通过配置监听规则将流量分发到不同的云服务器 ECS(Elastic Compute Service 弹性计算服务)实例上。此外,可以使用会话保持功能将同一客户端的请求转发到同一台后端ECS
② 扩展应用程序
可以根据业务发展的需要,随时添加和移除ECS实例来扩展应用系统的服务能力,适用于各种Web服务器和App服务器。
③ 消除单点故障
可以在负载均衡实例下添加多台ECS实例。当其中一部分ECS实例发生故障后,负载均衡会自动屏蔽故障的ECS实例,将请求分发给正常运行的ECS实例,保证应用系统仍能正常工作
④ 同城容灾 (多可用区容灾)
为了提供更加稳定可靠的负载均衡服务,阿里云负载均衡已在各地域部署了多可用区以实现同地域容灾。当主可用区出现机房故障或不可用时,负载均衡仍然有能力在非常短的时间内(如:大约30s中断)切换到另外一个备可用区恢复服务能力;当主可用区恢复时,负载均衡同样会自动切换到主可用区提供服务。使用负载均衡时,您可以将负载均衡实例部署在支持多可用区的地域以实现同城容灾。此外,建议您结合自身的应用需要,综合考虑后端服务器的部署。如果您的每个可用区均至少添加了一台ECS实例,那么此种部署模式下的负载均衡服务的效率是最高的。
① 当客户端发起请求报文时
② 当数据包到达我们的代理服务器源ip不变, 需要修改目的ip及端口号
③ 真实服务器收到报文后,构建响应报文
④ 再发给代理服务器, 代理服务会修改 源ip 将内网地址 改成外网地址
lvs-nat:本质是多目标IP的DNAT,通过将请求报文中的目标地址和目标端口修改为某处的RS的RIP和PORT实现转发
(1)RIP(真实服务器)和DIP(代理服务器的内网)应在同一个IP网络,且应使用私网地址;RS的网关要指向DIP
(2)请求报文和响应报文都必须经由lvs服务器转发,lvs服务器易于成为系统瓶颈
(3)支持端口映射,可修改请求报文的目标PORT
(4)VS必须是Linux系统,RS可以是任意OS系统
① RIP和DIP可以不处于同一物理网络中,RS的网关一般不能指向DIP,且RIP可以和公网通信。也就是说集群节点可以跨互联网实现。DIP, VIP, RIP可以是公网地址。
② RealServer的通道接口上需要配置VIP地址,以便接收DIP转发过来的数据包,以及作为响应的
报文源IP。
③ DIP转发给RealServer时需要借助隧道,隧道外层的IP头部的源IP是DIP,目标IP是RIP,而
RealServer响应给客户端的IP头部是根据隧道内层的IP头分析得到的,源IP是VIP,目标IP是CIP
④ 请求报文要经由Director,但响应不经由Director,响应由RealServer自己完成
⑤ 不支持端口映射
⑥ RS的OS须支持隧道功能
一般来说,隧道模式常会用来负载调度缓存服务器组,这些缓存服务器一般放置在不同的网络环境,可以就近折返给客户端。在请求对象不在Cache服务器本地命中的情况下,Cache服务器要向源服务器发送请求,将结果取回,最后将结果返回给用户。
直接路由(Direct Routing):简称 DR 模式,采用半开放式的网络结构,与 TUN 模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络。负载调度器与各节点服务器通过本地网络连接,不需要建立专用的 IP 隧道直接路由,LVS默认模式,应用最广泛,通过请求报文重新封装一个MAC首部进行转发,源MAC是DIP所在的接口的MAC,目标MAC是某挑选出的RS的RIP所在接口的MAC地址;源IP/PORT,以及目标IP/PORT均保持不变。
DR模式的特点:
① Director和各RS都配置有VIP
② 确保前端路由器将目标IP为VIP的请求报文发往Director
在前端网关做静态绑定VIP和Director的MAC地址
在RS上使用arptables工具
③ RS的RIP可以使用私网地址,也可以是公网地址;RIP与DIP在同一IP网络;RIP的网关不能指向DIP,以确保响应报文不会经由Director
④ RS和Director要在同一个物理网络
⑤ 请求报文要经由Director,但响应报文不经由Director,而由RS直接发往Client
⑥ 不支持端口映射(端口不能修改)
⑦ 无需开启 ip_forward
⑧ RS可使用大多数OS系统
NAT | TUN | DR | |
优点 | 端口转换 | WAN | 性能最好 |
缺点 | 性能瓶颈 | 服务器支持隧道模式 | 不支持跨网段 |
真实服务器要求 | any | Tunneling | Non-arp device |
支持网络 | private(私网) | LAN/WAN(私网/公网) | LAN(私网) |
真实服务器数量 | low (10~20) | High (100) | High (100) |
真实服务器网关 | lvs内网地址 | Own router(网工定义) | Own router(网工定义) |
ipvs scheduler:根据其调度时是否考虑各RS当前的负载状态
分为两种:
静态方法:不管后端服务器的状态,根据自身的算法进行调度
动态方法:会根据后端服务器的状态进行调度
仅根据算法本身进行调度
静态:
① RR:roundrobin,轮询,较常用
② WRR:Weighted RR,加权轮询,较常用;先算总权重,再用自己的权重除以总权重
③ SH:Source Hashing,实现session sticky,源IP地址hash;将来自于同一个IP地址的请求始终发往第一次挑中的RS,从而实现会话绑定
④ DH:Destination Hashing;目标地址哈希,第一次轮询调度至RS,后续将发往同一个目标地址的请求始终转发至第一次挑中的RS,典型使用场景是正向代理缓存场景中的负载均衡,如: Web缓存
动态:
主要根据每RS当前的负载状态及调度算法进行调度Overhead=value 较小的RS将被调度。根据一个参考值,来确定服务器是否繁忙,如果这个值越小,代表服务器空闲,就会优先调度。
① LC:least connections 适用于长连接应用
- Overhead=activeconns*256+inactiveconns
- 活跃 不活跃
② WLC:Weighted LC,默认调度方法,较常用
- Overhead=(activeconns*256+inactiveconns)/weight
- 权重
③ SED:Shortest Expection Delay,初始连接高权重优先,只检查活动连接,而不考虑非活动连接
- Overhead=(activeconns+1)*256/weight
- #如何服务器均在初始状态,大家连接数都是0,上条公式将无法确认调度
④ NQ:Never Queue,第一轮均匀分配,后续SED
⑤ LBLC:Locality-Based LC,动态的DH算法,使用场景:根据负载状态实现正向代理,实现Web Cache等(检查后端服务器是否繁忙)
⑥ LBLCR:LBLC with Replication,带复制功能的LBLC,解决LBLC负载不均衡问题,从负载重的复制到负载轻的RS,,实现Web Cache等
内核版本 4.15 版本后新增调度算法:FO和OVF
FO (Weighted Fail Over)调度算法,在此FO算法中,遍历虚拟服务所关联的真实服务器链表,找到还未过载(未设置IP_VS_DEST_F_OVERLOAD标志)的且权重最高的真实服务器,进行调度,属于静态算法
OVF(Overfiow-connecion)调度笪法,基于真实服务器的活动连接教量和权重值实现、将新连接调度到权重值最高的真实服务器,直到其活动连接教量超过权重值之后调度到下一个权重值最高的真实服务器。在此OVF算法中,遍历虚拟服务相关联的真实服务器链表,找到权重值最髙的可用真实服务器,属于动态算法
一个可用的真实服务器需要同时满足以下条件:
ipvsadm工具可以通过命令行方式进行配置和管理,支持添加、删除、修改虚拟服务器、后端服务器以及负载均衡算法等。使用ipvsadm可以方便地实现负载均衡器的配置和管理,同时也可以通过脚本自动化部署和管理LVS集群。ipvsadm工具支持多种负载均衡算法,如轮询、加权轮询、源地址哈希、最小连接数等。同时,它还支持DR、NAT、TUN等不同的集群体系架构,以满足不同场景下的需求。
选项 | 说明 |
-A | 添加虚拟服务器 |
-D | 删除整个虚拟服务器 |
-s | 指定负载调度算法(轮询: rr、加权轮询: wrr、最少连接: lc、加权最少连接: wlc) |
-a | 添加真实服务器(节点服务器) |
-d | 删除某一个节点 |
-t | 指定VIP地址及TCP端口 |
-r | 指定RIP地址及TCP端口 |
-m | 表示使用NAT群集模式 |
-g | 表示使用DR模式 |
-i | 表示使用TUN模式 |
-w | 设置权重(权重为0时表示暂停节点) |
-p 60 | 表示保持长连接60秒 |
-l | 列表查看 LVS虚拟服务器(默认为查看所有) |
-n | 以数字形式显示地址、端口等信息,常与"-l“选项组合使用。ipvsadm -ln |
选项:
lvs类型:
-g: gateway, dr类型,默认
-i: ipip, tun类型
-m: masquerade, nat类型
-w weight:权重
示例:
- 定义代理服务器
- ipvsadm -A -t 12.0.0.1:80 -s rr
- -A:新建代理服务器
- -t:tcp协议
- 12.0.0.1:80:服务器地址端口
- -s:算法
- rr:轮询
- #向LVS集群中添加一个新的虚拟服务器,将来自12.0.0.1:80的请求通过rr算法转发到后端的RS上进行处理
-
- 定义web真实服务器
- ipvsadm -a -t 12.0.0.1:80 -r 192.168.80.11:80 -m
- -a:添加一个新的虚拟服务器。
- -t 12.0.0.1:80:指定虚拟服务器的VIP(Virtual IP)和端口号,即12.0.0.1的80端口。
- -r 192.168.80.11:80:指定虚拟服务器转发请求到的后端RS(Real Server)的IP地址和端口号,即192.168.80.11的80端口。
- -m:指定LVS集群的调度算法,即负载均衡算法。这里的-m选项未指定具体的算法,因此会使用默认的负载均衡算法。
- #将来自12.0.0.1:80的请求转发到192.168.80.11:80上进行处理,同时使用默认的负载均衡算法
NAT模式是LVS负载均衡器中常用的一种集群体系架构,它可以通过NAT技术将客户端请求转发到后端服务器上,实现负载均衡和高可用性。
① 所有机器关闭防火墙
- [root@localhost ~]# systemctl stop firewalld.service
- [root@localhost ~]# setenforce 0
② NFS服务器 7-3 添加共享文件
- 7-3:
- [root@localhost ~]# mkdir /benet
- [root@localhost ~]# mkdir /accp
- [root@localhost ~]# vim /etc/exports
- /benet *
- /accp *
- [root@localhost ~]# exportfs -r
- [root@localhost ~]# exportfs -v
-
- [root@localhost ~]# echo accp > /accp/index.html
- [root@localhost ~]# echo benet > /benet/index.html
- [root@localhost accp]# systemctl start nfs
③ web服务器 7-1,7-2 添加共享文件挂载
- 7-1:
- [root@localhost ~]# showmount -e 192.168.190.103 #查看nfs服务
- Export list for 192.168.190.103:
- /accp *
- /benet *
- [root@localhost ~]# mount 192.168.190.103:/accp /var/www/html/ #挂载站点
- [root@localhost ~]# systemctl start httpd
-
- 7-2:
- [root@localhost ~]# mount 192.168.190.103:/benet /var/www/html/
- [root@localhost ~]# systemctl start httpd
④ 测试访问页面
- 7-0:
- [root@localhost ~]# curl 192.168.190.102
- benet
- [root@localhost ~]# curl 192.168.190.101
- accp
⑤ 安装 ipvsadm 工具
[root@localhost ~]#yum install ipvsadm* -y
⑥ 代理服务器 7-0 添加网卡编辑网卡信息
- [root@localhost ~]# cd /etc/sysconfig/network-scripts/
- [root@localhost network-scripts]# cp ifcfg-ens33 ifcfg-ens36
- [root@localhost network-scripts]# vim ifcfg-ens36
- BOOTPROTO=static
- NAME=ens36
- DEVICE=ens36
- IPADDR=12.0.0.1
- NETMASK=255.255.255.0
- GATEWAY=12.0.0.1
- DNS1=114.114.114.114
-
- [root@localhost network-scripts]# vim ifcfg-ens33
- NAME=ens33
- DEVICE=ens33
- IPADDR=192.168.190.100
- NETMASK=255.255.255.0
- GATEWAY=192.168.190.100
- DNS1=114.114.114.114
-
- [root@localhost network-scripts]# systemctl restart network
-
- [root@localhost network-scripts]# route -n #查看默认路由
- Kernel IP routing table
- Destination Gateway Genmask Flags Metric Ref Use Iface
- 0.0.0.0 192.168.190.100 0.0.0.0 UG 100 0 0 ens33
- 0.0.0.0 12.0.0.1 0.0.0.0 UG 101 0 0 ens36
- 12.0.0.0 0.0.0.0 255.255.255.0 U 100 0 0 ens36
- 192.168.122.0 0.0.0.0 255.255.255.0 U 0 0 0 virbr0
- 192.168.190.0 0.0.0.0 255.255.255.0 U 100 0 0 ens33
⑦ 代理服务器 7-0 开启路由转发功能
- [root@localhost ~]# vim /etc/sysctl.conf
- net.ipv4.ip_forward = 1 #打开路由转发功能
⑧ 配置代理服务器策略
- [root@localhost ~]# ipvsadm-save >/etc/sysconfig/ipvsadm #保存配置文件
- [root@localhost ~]# systemctl start ipvsadm.service
- [root@localhost ~]# ipvsadm -C #清空策略
- [root@localhost ~]# ipvsadm -A -t 12.0.0.1:80 -s rr #指定IP地址外网的入口-s rr轮询
- [root@localhost ~]# ipvsadm -a -t 12.0.0.1:80 -r 192.168.190.101:80 -m
- [root@localhost ~]# ipvsadm -a -t 12.0.0.1:80 -r 192.168.190.102:80 -m
- #先指定虚拟服务器再添加真实服务器地址,-r:真实服务器地址 -m指定nat模式
- [root@localhost ~]# ipvsadm
- IP Virtual Server version 1.2.1 (size=4096)
- Prot LocalAddress:Port Scheduler Flags
- -> RemoteAddress:Port Forward Weight ActiveConn InActConn
- TCP localhost.localdomain:http rr #启动,自动加载ip_vs内核模块
- -> 192.168.190.101:http Masq 1 0 0
- -> 192.168.190.102:http Masq 1 0 0
- [root@localhost ~]# ipvsadm -ln #查看策略
- IP Virtual Server version 1.2.1 (size=4096)
- Prot LocalAddress:Port Scheduler Flags
- -> RemoteAddress:Port Forward Weight ActiveConn InActConn
- TCP 12.0.0.1:80 rr
- -> 192.168.190.101:80 Masq 1 0 0
- -> 192.168.190.102:80 Masq 1 0 0
⑨ 修改web服务器7-1,7-2网关
- GATEWAY=192.168.190.100
- [root@localhost ~]# systemctl restart network
⑩ 访问代理服务器外网ip,查看是否实现轮询
- [root@localhost ~]# curl 12.0.0.1
- benet
- [root@localhost ~]# curl 12.0.0.1
- accp
- [root@localhost ~]# curl 12.0.0.1
- benet
- [root@localhost ~]# curl 12.0.0.1
- accp
LVS DR模式是将负载均衡器和后端服务器都放置在同一个子网中的集群部署模式。在DR模式下,LVS Director节点通过在网络上配置虚拟IP(VIP)来接收客户端请求,并使用ARP协议将VIP的MAC地址映射到LVS Director节点的物理网卡。
序号 | 源地址 | 目标地址 |
1 | 12.0.0.100 客户机mac | 192.168.190.188 路由器mac |
2 | 12.0.0.100 客户机mac | 192.168.190.188 代理服务器mac |
3 | 12.0.0.100 代理服务器mac | 192.168.190.188 后端服务器mac |
4 | 192.168.190.188 后端服务器mac | 12.0.0.100 路由器mac |
5 | 192.168.190.188 路由器mac | 12.0.0.100 客户机mac |
基于内网部分操作过程。
① 配置负载调度器
- [root@localhost ~]# systemctl stop firewalld.service
- [root@localhost ~]# setenforce 0
- [root@localhost ~]# ifconfig ens33:0 192.168.190.188/32 #配置虚拟IP地址
- [root@localhost ~]# vim /etc/sysctl.conf #调整/proc响应参数
- [root@localhost ~]# sysctl -p #刷新配置
- net.ipv4.ip_forward = 0
- net.ipv4.conf.all.send_redirects = 0
- net.ipv4.conf.default.send_redirects = 0
- net.ipv4.conf.ens33.send_redirects = 0
- [root@localhost ~]# modprobe ip_vs #加载模块
- [root@localhost ~]# cat /proc/net/ip_vs
- IP Virtual Server version 1.2.1 (size=4096)
- Prot LocalAddress:Port Scheduler Flags
- -> RemoteAddress:Port Forward Weight ActiveConn InActConn
- [root@localhost ~]# yum install ipvsadm.x86_64 -y #安装服务
- root@localhost ~]# ipvsadm-save >/etc/sysconfig/ipvsadm
- [root@localhost ~]# systemctl start ipvsadm.service
- [root@localhost ~]# ipvsadm -C
- [root@localhost ~]# ipvsadm -A -t 192.168.190.188:80 -s rr
- [root@localhost ~]# ipvsadm -a -t 192.168.190.188:80 -r 192.168.190.101:80 -g
- [root@localhost ~]# ipvsadm -a -t 192.168.190.188:80 -r 192.168.190.102:80 -g
- #添加真实服务器-a 指定VIP地址及TCP端口-t 指定RIP地址及TCP端口 -r 指定DR模式-g
- [root@localhost ~]# ipvsadm
- IP Virtual Server version 1.2.1 (size=4096)
- Prot LocalAddress:Port Scheduler Flags
- -> RemoteAddress:Port Forward Weight ActiveConn InActConn
- TCP localhost.localdomain:http rr
- -> 192.168.190.101:http Route 1 0 0
- -> 192.168.190.102:http Route 1 0 0
- [root@localhost ~]# ipvsadm -ln
- IP Virtual Server version 1.2.1 (size=4096)
- Prot LocalAddress:Port Scheduler Flags
- -> RemoteAddress:Port Forward Weight ActiveConn InActConn
- TCP 192.168.190.188:80 rr
- -> 192.168.190.101:80 Route 1 0 0
- -> 192.168.190.102:80 Route 1 0 0
② 分别修改 7-1,7-2 节点服务器配置
- [root@localhost ~]# systemctl stop firewalld.service
- [root@localhost ~]# setenforce 0
- [root@localhost ~]# yum install httpd -y
- [root@localhost ~]# systemctl start httpd
- [root@localhost ~]# ifconfig lo:0 192.168.190.188/32 #修改回环网卡
- [root@localhost ~]# cd /var/www/html/
- [root@localhost html]# echo 7-1 > index.html
- [root@localhost ~]# vim /etc/sysctl.conf
- [root@localhost ~]# sysctl -p
- net.ipv4.conf.all.arp_ignore = 1
- net.ipv4.conf.all.arp_announce = 2
- net.ipv4.conf.default.arp_ignore = 1
- net.ipv4.conf.default.arp_announce = 2
- net.ipv4.conf.lo.arp_ignore = 1
- net.ipv4.conf.lo.arp_announce = 2
-
- 定义对目标地址为本地IP的ARP询问不同的应答模式0
- 0 - (默认值): 回应任何网络接口上对任何本地IP地址的arp查询请求
- 1 - 只回答目标IP地址是来访网络接口本地地址的ARP查询请求
- 2 -只回答目标IP地址是来访网络接口本地地址的ARP查询请求,且来访IP必须在该网络接口的子网段内
③ 客户端访问,查看是否轮询
- [root@localhost ~]# curl 192.168.190.188
- 7-2
- [root@localhost ~]# curl 192.168.190.188
- 7-1
- [root@localhost ~]# curl 192.168.190.188
- 7-2
- [root@localhost ~]# curl 192.168.190.188
- 7-1
选择适合的负载均衡器应根据具体需求和场景来决定。如果需要更低级别的负载均衡和高度可定制性,LVS可能是一个不错的选择。如果你的主要关注点是Web应用程序的负载均衡和反向代理,而且需要简单的配置和高性能,Nginx是一个很好的选择。而如果你需要处理多种流量类型和高级的负载均衡功能,HAProxy是一个强大的工具。
总结来说,NFS适用于UNIX/Linux环境的文件共享,CIFS/SMB用于Windows和跨平台文件共享,而GFS用于大规模集群环境和分布式存储。选择适合的协议或文件系统应根据您的环境、需求和兼容性进行评估。