redis群集有三种模式:
分别是主从同步/复制、哨兵模式、Cluster,下面会讲解一下三种模式的工作方式,以及如何搭建cluster群集
主从复制是高可用Redis的基础,哨兵和集群都是在主从复制基础上实现高可用的。主从复制主要实现了数据的多机备份,以及对于读操作的负载均衡和简单的故障恢复。
故障恢复无法自动化;写操作无法负载均衡;存储能力受到单机的限制。
在主从复制的基础上,哨兵实现了自动化的故障恢复。
写操作无法负载均衡;存储能力受到单机的限制;哨兵无法对从节点进行自动故障转移,在读写分离场景下,从节点故障会导致读服务不可用,需要对从节点做额外的监控、切换操作。
通过集群,Redis解决了写操作无法负载均衡,以及存储能力受到单机限制的问题,实现了较为完善的高可用方案。
主从复制,是指将一台Redis服务器的数据,复制到其他的Redis服务器。前者称为主节点(Master),后者称为从节点(Slave);数据的复制是单向的,只能由主节点到从节点。
默认情况下,每台Redis服务器都是主节点;且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点。
数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点),分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。
高可用基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。
1、若启动一个Slave机器进程,则它会向Master机器发送一个“sync command”命令,请求同步连接。
2、无论是第一次连接还是重新连接,Master机器都会启动一个后台进程,将数据快照保存到数据文件中(执行rdb操作),同时Master还会记录修改数据的所有命令并缓存在数据文件中。
3、后台进程完成缓存操作之后,Master机器就会向Slave机器发送数据文件,Slave端机器将数据文件保存到硬盘上,然后将其加载到内存中,接着Master机器就会将修改数据的所有操作一并发送给Slave端机器。若Slave出现故障导致宕机,则恢复正常后会自动重新连接。
4、Master机器收到Slave端机器的连接后,将其完整的数据文件发送给Slave端机器,如果Mater同时收到多个Slave发来的同步请求,则Master会在后台启动一个进程以保存数据文件,然后将其发送给所有的Slave端机器,确保所有的Slave端机器都正常。
- Master节点: 20.0.0.50
- Slave1节点: 20.0.0.120
- Slave2节点: 20.0.0.123
-
- systemctl stop firewalld
- setenforce 0
- 安装 Redis-----
- yum install -y gcc gcc-c++ make
-
- tar zxvf redis-5.0.7.tar.gz -C /opt/
-
- wget -p /opt http://download.redis.io/releases/redis-5.0.9.tar.gz
- cd /opt/redis-5.0.7/
- make
- make PREFIX=/usr/local/redis install
- #由于Redis源码包中直接提供了 Makefile 文件,所以在解压完软件包后,不用先执行 ./configure 进行配置,可直接执行 make 与 make install 命令进行安装。
-
- #执行软件包提供的 install_server.sh 脚本文件设置 Redis 服务所需要的相关配置文件
- cd /opt/redis-5.0.7/utils
- ./install_server.sh
- ...... #一直回车至第五步
- Please select the redis executable path [/usr/local/bin/redis-server] /usr/local/redis/bin/redis-server
- #需要手动修改为 /usr/local/redis/bin/redis-server ,注意要一次性正确输入
-
- #把redis的可执行程序文件放入路径环境变量的目录中便于系统识别
- ln -s /usr/local/redis/bin/* /usr/local/bin/
- 当 install_server.sh 脚本运行完毕,Redis 服务就已经启动,默认监听端口为 6379
- netstat -natp | grep redis
- vim /etc/redis/6379.conf redis.conf
- bind 0.0.0.0 #70行,修改监听地址为0.0.0.0
- daemonize yes #137行,开启守护进程
- logfile /var/log/redis_6379.log #172行,指定日志文件目录
- dir /var/lib/redis/6379 #264行,指定工作目录
- appendonly yes #700行,开启AOF持久化功能
-
- #重启redis
- /etc/init.d/redis_6379 restart
- bind 0.0.0.0 #70行,修改监听地址为0.0.0.0
- daemonize yes #137行,开启守护进程
- logfile /var/log/redis_6379.log #172行,指定日志文件目录
- dir /var/lib/redis/6379 #264行,指定工作目录
- replicaof 20.0.0.50 6379 #288行,指定要同步的Master节点IP和端口
- appendonly yes #700行,开启AOF持久化功能
-
- #重启redis
- /etc/init.d/redis_6379 restart
- 在Master节点上看日志:
- tail -f /var/log/redis_6379.log
- Replica 20.0.0.120:6379 asks for synchronization
- Replica 20.0.0.123:6379 asks for synchronization
- [root@localhost ~]# redis-cli info replication
- # Replication
- role:master
- connected_slaves:2
- slave0:ip=20.0.0.123,port=6379,state=online,offset=378,lag=1
- slave1:ip=20.0.0.120,port=6379,state=online,offset=378,lag=1
- master_replid:e4e3276171b0167a79b2f0318fb935be3de040ca
- master_replid2:0000000000000000000000000000000000000000
- master_repl_offset:378
- second_repl_offset:-1
- repl_backlog_active:1
- repl_backlog_size:1048576
- repl_backlog_first_byte_offset:1
- repl_backlog_histlen:378
-
主从切换技术的方法是:当服务器宕机后,需要手动一台从机切换为主机,这需要人工干预,不仅费时费力而且还会造成一段时间内服务不可用。为了解决主从复制的缺点,就有了哨兵机制。
哨兵的核心功能:在主从复制的基础上,哨兵引入了主节点的自动故障转移。
哨兵(sentinel):是一个分布式系统,用于对主从结构中的每台服务器进行监控,当出现故障时通过投票机制选择新的 Master并将所有slave连接到新的 Master。所以整个运行哨兵的集群的数量不得少于3个节点。
监控:哨兵会不断地检查主节点和从节点是否运作正常。
自动故障转移:当主节点不能正常工作时,哨兵会开始自动故障转移操作,它会将失效主节点的其中一个从节点升级为新的主节点,并让其它从节点改为复制新的主节点。
通知(提醒):哨兵可以将故障转移的结果发送给客户端。
哨兵节点:哨兵系统由一个或多个哨兵节点组成,哨兵节点是特殊的redis节点,不存储数据。
数据节点:主节点和从节点都是数据节点。
1、由哨兵节点定期监控发现主节点是否出现了故障
每个哨兵节点每隔1秒会向主节点、从节点及其它哨兵节点发送一次ping命令做一次心跳检测。如果主节点在一定时间范围内不回复或者是回复一个错误消息,那么这个哨兵就会认为这个主节点主观下线了(单方面的)。当超过半数哨兵节点认为该主节点主观下线了,这样就客观下线了。
2、当主节点出现故障,此时哨兵节点会通过Raft算法(选举算法)实现选举机制共同选举出一个哨兵节点为leader,来负责处理主节点的故障转移和通知。所以整个运行哨兵的集群的数量不得少于3个节点。
3、由leader哨兵节点执行故障转移,过程如下:
将某一个从节点升级为新的主节点,让其它从节点指向新的主节点;
若原主节点恢复也变成从节点,并指向新的主节点;
通知客户端主节点已经更换。
需要特别注意的是,客观下线是主节点才有的概念;如果从节点和哨兵节点发生故障,被哨兵主观下线后,不会再有后续的客观下线和故障转移操作。
1、过滤掉不健康的(已下线的),没有回复哨兵 ping 响应的从节点。
2、选择配置文件中从节点优先级配置最高的。(replica-priority,默认值为100)
3、选择复制偏移量最大,也就是复制最完整的从节点。
哨兵的启动依赖于主从模式,所以须把主从模式安装好的情况下再去做哨兵模式
- Master节点: 20.0.0.50
- Slave1节点: 20.0.0.120
- Slave2节点: 20.0.0.123
-
- systemctl stop firewalld
- setenforce 0
- vim /opt/redis-5.0.7/sentinel.conf
-
- protected-mode no #17行,关闭保护模式
-
- port 26379 #21行,Redis哨兵默认的监听端口
-
- daemonize yes #26行,指定sentinel为后台启动
-
- logfile "/var/log/sentinel.log" #36行,指定日志存放路径
-
- dir "/var/lib/redis/6379" #65行,指定数据库存放路径
-
- sentinel monitor mymaster 20.0.0.50 6379 2 #84行,修改 指定该哨兵节点监控20.0.0.50:6379这个主节点,该主节点的名称是mymaster,最后的2的含义与主节点的故障判定有关:至少需要2个哨兵节点同意,才能判定主节点故障并进行故障转移
-
- sentinel down-after-milliseconds mymaster 30000 #113行,判定服务器down掉的时间周期,默认30000毫秒(30秒)
-
- sentinel failover-timeout mymaster 180000 #146行,故障节点的最大超时时间为180000(180秒)
- 先启master,再启slave
- cd /opt/redis-5.0.7/
- redis-sentinel sentinel.conf &
- redis-cli -p 26379 info Sentinel
- # Sentinel
- sentinel_masters:1
- sentinel_tilt:0
- sentinel_running_scripts:0
- sentinel_scripts_queue_length:0
- sentinel_simulate_failure_flags:0
- master0:name=mymaster,status=ok,address=20.0.0.50:6379,slaves=2,sentinels=3
- #查看redis-server进程号:
- ps -aux | grep redis
- root 47670 0.1 0.2 156452 7916 ? Ssl 08:44 0:06 /usr/local/redis/bin/redis-server 0.0.0.0:6379
- root 51892 0.3 0.2 153892 7784 ? Ssl 09:57 0:00 redis-sentinel *:26379 [sentinel]
- root 52015 0.0 0.0 112724 988 pts/0 S+ 09:59 0:00 grep --color=auto redis
-
- #杀死 Master 节点上redis-server的进程号
- kill -9 47670 #Master节点上redis-server的进程号
- #查看日志
- tail -f /var/log/sentinel.log
- 51891:X 08 Sep 2023 09:57:35.350 # Configuration loaded
- 51892:X 08 Sep 2023 09:57:35.365 * Increased maximum number of open files to 10032 (it was originally set to 1024).
- 51892:X 08 Sep 2023 09:57:35.366 * Running mode=sentinel, port=26379.
- 51892:X 08 Sep 2023 09:57:35.366 # WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value of 128.
- 51892:X 08 Sep 2023 09:57:35.368 # Sentinel ID is 01c1463d0e4af8b0f149256f3c7956dfb263a26b
- 51892:X 08 Sep 2023 09:57:35.368 # +monitor master mymaster 20.0.0.50 6379 quorum 2
- 51892:X 08 Sep 2023 09:57:35.372 * +slave slave 20.0.0.123:6379 20.0.0.123 6379 @ mymaster 20.0.0.50 6379
- 51892:X 08 Sep 2023 09:57:35.373 * +slave slave 20.0.0.120:6379 20.0.0.120 6379 @ mymaster 20.0.0.50 6379
- 51892:X 08 Sep 2023 09:57:53.580 * +sentinel sentinel e269017c8c48e5cdb4c1498403f3161e9bc68f8f 20.0.0.120 26379 @ mymaster 20.0.0.50 6379
- 51892:X 08 Sep 2023 09:58:03.089 * +sentinel sentinel aa1ff0e24686ff298b24a3e5123447a4f7486fdd 20.0.0.123 26379 @ mymaster 20.0.0.50 6379
- 51892:X 08 Sep 2023 10:06:42.804 # +sdown master mymaster 20.0.0.50 6379
- 51892:X 08 Sep 2023 10:06:42.905 # +odown master mymaster 20.0.0.50 6379 #quorum 2/2
- 51892:X 08 Sep 2023 10:06:42.905 # +new-epoch 1
- 51892:X 08 Sep 2023 10:06:42.905 # +try-failover master mymaster 20.0.0.50 6379
- 51892:X 08 Sep 2023 10:06:42.911 # +vote-for-leader 01c1463d0e4af8b0f149256f3c7956dfb263a26b 1
- 51892:X 08 Sep 2023 10:06:42.912 # aa1ff0e24686ff298b24a3e5123447a4f7486fdd voted for aa1ff0e24686ff298b24a3e5123447a4f7486fdd 1
- 51892:X 08 Sep 2023 10:06:42.914 # e269017c8c48e5cdb4c1498403f3161e9bc68f8f voted for aa1ff0e24686ff298b24a3e5123447a4f7486fdd 1
- 51892:X 08 Sep 2023 10:06:43.543 # +config-update-from sentinel aa1ff0e24686ff298b24a3e5123447a4f7486fdd 20.0.0.123 26379 @ mymaster 20.0.0.50 6379
- 51892:X 08 Sep 2023 10:06:43.543 # +switch-master mymaster 20.0.0.50 6379 20.0.0.123 6379
- 51892:X 08 Sep 2023 10:06:43.544 * +slave slave 20.0.0.120:6379 20.0.0.120 6379 @ mymaster 20.0.0.123 6379
- 51892:X 08 Sep 2023 10:06:43.544 * +slave slave 20.0.0.50:6379 20.0.0.50 6379 @ mymaster 20.0.0.123 6379
- 51892:X 08 Sep 2023 10:07:13.558 # +sdown slave 20.0.0.50:6379 20.0.0.50 6379 @ mymaster 20.0.0.123 6379
- redis-cli -p 26379 info Sentinel
- # Sentinel
- sentinel_masters:1
- sentinel_tilt:0
- sentinel_running_scripts:0
- sentinel_scripts_queue_length:0
- sentinel_simulate_failure_flags:0
- master0:name=mymaster,status=ok,address=20.0.0.123:6379,slaves=2,sentinels=3
集群,即Redis Cluster,是Redis 3.0开始引入的分布式存储方案。
集群由多个节点(Node)组成,Redis的数据分布在这些节点中。集群中的节点分为主节点和从节点:只有主节点负责读写请求和集群信息的维护;从节点只进行主节点数据和状态信息的复制。
1、数据分区:数据分区(或称数据分片)是集群最核心的功能。
集群将数据分散到多个节点,一方面突破了Redis单机内存大小的限制,存储容量大大增加;另一方面每个主节点都可以对外提供读服务和写服务,大大提高了集群的响应能力。
Redis单机内存大小受限问题,在介绍持久化和主从复制时都有提及;例如,如果单机内存太大,bgsave和bgrewriteaof的fork操作可能导致主进程阻塞,主从环境下主机切换时可能导致从节点长时间无法提供服务,全量复制阶段主节点的复制缓冲区可能溢出。
2、高可用:集群支持主从复制和主节点的自动故障转移(与哨兵类似);当任一节点发生故障时,集群仍然可以对外提供服务。
Redis集群引入了哈希槽的概念
Redis集群有16384个哈希槽(编号0-16383)
集群的每个节点负责一部分哈希槽
每个Key通过CRC16校验后对16384取余来决定放置哪个哈希槽,通过这个值,去找到对应的插槽所对应的节点,然后直接自动跳转到这个对应的节点上进行存取操作
节点A包含0到5460号哈希槽
节点B包含5461到10922号哈希槽
节点C包含10923到16383号哈希槽
集群中具有A、B、C三个节点,如果节点B失败了,整个集群就会因缺少5461-10922这个范围的槽而不可以用。
为每个节点添加一个从节点A1、B1、C1整个集群便有三个Master节点和三个slave节点组成,在节点B失败后,集群选举B1位为的主节点继续服务。当B和B1都失败后,集群将不可用。
redis的集群一般需要6个节点,3主3从。方便起见,这里所有节点在同一台服务器上模拟:
以端口号进行区分:3个主节点端口号:6001/6002/6003,对应的从节点端口号:6004/6005/6006。
- cd /etc/redis/
- mkdir -p redis-cluster/redis600{1..6}
-
- for i in {1..6}
- do
- cp /opt/redis-5.0.7/redis.conf /etc/redis/redis-cluster/redis600$i
- cp /opt/redis-5.0.7/src/redis-cli /opt/redis-5.0.7/src/redis-server /etc/redis/redis-cluster/redis600$i
- done
- #其他5个文件夹的配置文件以此类推修改,注意6个端口都要不一样。
- cd /etc/redis/redis-cluster/redis6001
- vim redis.conf
- #bind 127.0.0.1 #69行,注释掉bind 项,默认监听所有网卡
- protected-mode no #88行,修改,关闭保护模式
- port 6001 #92行,修改,redis监听端口,
- daemonize yes #136行,开启守护进程,以独立进程启动
- cluster-enabled yes #832行,取消注释,开启群集功能
- cluster-config-file nodes-6001.conf #840行,取消注释,群集名称文件设置
- cluster-node-timeout 15000 #846行,取消注释群集超时时间设置
- appendonly yes #700行,修改,开启AOF持久化
- 分别进入那六个文件夹,执行命令:redis-server redis.conf ,来启动redis节点
- cd /etc/redis/redis-cluster/redis6001
- redis-server redis.conf
-
- for d in {1..6}
- do
- cd /etc/redis/redis-cluster/redis600$d
- redis-server redis.conf
- done
-
- #查看redis进程
- ps -aux | grep redis
- root 51892 0.2 0.2 153892 7984 ? Ssl 07:50 0:11 redis-sentinel *:26379 [sentinel]
- root 54492 0.1 0.2 165160 9920 ? Ssl 08:22 0:03 redis-server *:6001 [cluster]
- root 54502 0.1 0.2 165160 10220 ? Ssl 08:23 0:03 redis-server *:6002 [cluster]
- root 54510 0.1 0.2 165160 10220 ? Ssl 08:23 0:03 redis-server *:6003 [cluster]
- root 54518 0.1 0.3 171304 14792 ? Ssl 08:23 0:03 redis-server *:6004 [cluster]
- root 54526 0.1 0.3 171304 15316 ? Ssl 08:23 0:03 redis-server *:6005 [cluster]
- root 54534 0.1 0.4 171304 18064 ? Ssl 08:23 0:03 redis-server *:6006 [cluster]
- root 57547 0.0 0.0 112728 988 pts/0 S+ 08:59 0:00 grep --color=auto redis
-
redis-cli --cluster create 20.0.0.50:6001 20.0.0.50:6002 20.0.0.50:6003 20.0.0.50:6004 20.0.0.50:6005 20.0.0.50:6006 --cluster-replicas 1
- redis-cli -h 20.0.0.50 -p 6001
- 20.0.0.50:6001> CLUSTER SLOTS
- 1) 1) (integer) 10923
- 2) (integer) 16383
- 3) 1) "20.0.0.50"
- 2) (integer) 6003
- 3) "d6f30edac088f0a02c9a12661633aff61093fc21"
- 4) 1) "20.0.0.50"
- 2) (integer) 6005
- 3) "3b1c4f90bc43c6d622d8305de06e1fcb2a78b9e5"
- 2) 1) (integer) 0
- 2) (integer) 5460
- 3) 1) "20.0.0.50"
- 2) (integer) 6001
- 3) "6740c70dea7aaa1b4bf5a485c84cff5e5a977b15"
- 4) 1) "20.0.0.50"
- 2) (integer) 6006
- 3) "bfc3e41e8e4bf51f816eb97b153224d8fb5647dc"
- 3) 1) (integer) 5461
- 2) (integer) 10922
- 3) 1) "20.0.0.50"
- 2) (integer) 6002
- 3) "69dacd52bdd5349275de061d4bdf680791a5ff8a"
- 4) 1) "20.0.0.50"
- 2) (integer) 6004
- 3) "ecc68ea20df25a360a4a3ece7aeb6a87d554a9bd"
- 20.0.0.50:6001>