• redis主从复制


    一,redis集群模式

            redis群集有三种模式,分别是主从同步/复制、哨兵模式、Cluster
            ●主从复制:主从复制是高可用Redis的基础,哨兵和集群都是在主从复制基础上实现高可用的。主从复制主要实现了数据的多机备份,以及对于读操作的负载均衡和简单的故障恢复。
    缺陷:故障恢复无法自动化;写操作无法负载均衡;存储能力受到单机的限制。

            ●哨兵:在主从复制的基础上,哨兵实现了自动化的故障恢复。
    缺陷:写操作无法负载均衡;存储能力受到单机的限制;哨兵无法对从节点进行自动故障转移,在读写分离场景下,从节点故障会导致读服务不可用,需要对从节点做额外的监控、切换操作。

            ●集群:通过集群,Redis解决了写操作无法负载均衡,以及存储能力受到单机限制的问题,实现了较为完善的高可用方案。

    二,主从复制

            1,概念

            主从复制,是指将一台Redis服务器的数据,复制到其他的Redis服务器。前者称为主节点(Master),后者称为从节点(Slave);数据的复制是单向的,只能由主节点到从节点。默认情况下,每台Redis服务器都是主节点;且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点。
            2,主从复制的作用

            ●数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
            ●故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
            ●负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点),分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。
            ●高可用基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。

            3,主从复制流程

            (1)若启动一个Slave机器进程,则它会向Master机器发送一个“sync command”命令,请求同步连接。
            (2)无论是第一次连接还是重新连接,Master机器都会启动一个后台进程,将数据快照保存到数据文件中(执行rdb操作),同时Master还会记录修改数据的所有命令并缓存在数据文件中。
            (3)后台进程完成缓存操作之后,Master机器就会向Slave机器发送数据文件,Slave端机器将数据文件保存到硬盘上,然后将其加载到内存中,接着Master机器就会将修改数据的所有操作一并发送给Slave端机器。若Slave出现故障导致宕机,则恢复正常后会自动重新连接。
            (4)Master机器收到Slave端机器的连接后,将其完整的数据文件发送给Slave端机器,如果Mater同时收到多个Slave发来的同步请求,则Master会在后台启动一个进程以保存数据文件,然后将其发送给所有的Slave端机器,确保所有的Slave端机器都正常。

            4,配置

    1. 需要两从一主:
    2. 主:192.168.48.11
    3. 从:192.168.48.12192.168.48.13
    4. 都需要安装redis
    5. 主操作:
    6. vim /etc/redis/6379.conf
    7. bind 0.0.0.0 #70行,修改监听地址为0.0.0.0
    8. daemonize yes #137行,开启守护进程
    9. logfile /var/log/redis_6379.log #172行,指定日志文件目录
    10. dir /var/lib/redis/6379 #264行,指定工作目录
    11. appendonly yes #700行,开启AOF持久化功能
    12. /etc/init.d/redis_6379 restart
    13. 从操作:
    14. vim /etc/redis/6379.conf
    15. bind 0.0.0.0 #70行,修改监听地址为0.0.0.0
    16. daemonize yes #137行,开启守护进程
    17. logfile /var/log/redis_6379.log #172行,指定日志文件目录
    18. dir /var/lib/redis/6379 #264行,指定工作目录
    19. replicaof 192.168.10.23 6379 #288行,指定要同步的Master节点IP和端口
    20. appendonly yes #700行,开启AOF持久化功能
    21. /etc/init.d/redis_6379 restart
    22. 验证
    23. 在Master节点上看日志:
    24. tail -f /var/log/redis_6379.log
    25. Replica 192.168.10.14:6379 asks for synchronization
    26. Replica 192.168.10.15:6379 asks for synchronization
    27. 在Master节点上验证从节点:
    28. redis-cli info replication
    29. # Replication
    30. role:master
    31. connected_slaves:2
    32. slave0:ip=192.168.10.14,port=6379,state=online,offset=1246,lag=0
    33. slave1:ip=192.168.10.15,port=6379,state=online,offset=1246,lag=1

    三,哨兵模式

            1,概述

            主从切换技术的方法是:当服务器宕机后,需要手动一台从机切换为主机,这需要人工干预,不仅费时费力而且还会造成一段时间内服务不可用。为了解决主从复制的缺点,就有了哨兵机制。

            哨兵的核心功能:在主从复制的基础上,哨兵引入了主节点的自动故障转移。

            2,原理

            哨兵(sentinel):是一个分布式系统,用于对主从结构中的每台服务器进行监控,当出现故障时通过投票机制选择新的 Master并将所有slave连接到新的 Master。所以整个运行哨兵的集群的数量不得少于3个节点。

            3,哨兵模式的作用

            ●监控:哨兵会不断地检查主节点和从节点是否运作正常。

            ●自动故障转移:当主节点不能正常工作时,哨兵会开始自动故障转移操作,它会将失效主节点的其中一个从节点升级为新的主节点,并让其它从节点改为复制新的主节点。

            ●通知(提醒):哨兵可以将故障转移的结果发送给客户端。


            哨兵结构由两部分组成,哨兵节点和数据节点:
            ●哨兵节点:哨兵系统由一个或多个哨兵节点组成,哨兵节点是特殊的redis节点,不存储数据。
            ●数据节点:主节点和从节点都是数据节点。

            4,故障转移机制

            1.由哨兵节点定期监控发现主节点是否出现了故障
                    每个哨兵节点每隔1秒会向主节点、从节点及其它哨兵节点发送一次ping命令做一次心跳检测。如果主节点在一定时间范围内不回复或者是回复一个错误消息,那么这个哨兵就会认为这个主节点主观下线了(单方面的)。当超过半数哨兵节点认为该主节点主观下线了,这样就客观下线了。

            2.当主节点出现故障,此时哨兵节点会通过Raft算法(选举算法)实现选举机制共同选举出一个哨兵节点为leader,来负责处理主节点的故障转移和通知。所以整个运行哨兵的集群的数量不得少于3个节点。

            3.由leader哨兵节点执行故障转移,过程如下:
                    ●将某一个从节点升级为新的主节点,让其它从节点指向新的主节点;
                    ●若原主节点恢复也变成从节点,并指向新的主节点;
                    ●通知客户端主节点已经更换。

            需要特别注意的是,客观下线是主节点才有的概念;如果从节点和哨兵节点发生故障,被哨兵主观下线后,不会再有后续的客观下线和故障转移操作。

            5,主节点的选举:

                    1.过滤掉不健康的(已下线的),没有回复哨兵 ping 响应的从节点。
                    2.选择配置文件中从节点优先级配置最高的。(replica-priority,默认值为100)
                    3.选择复制偏移量最大,也就是复制最完整的从节点。

            6,配置

    1. 需要主从环境
    2. 所有节点操作:
    3. vim /opt/redis-5.0.7/sentinel.conf
    4. protected-mode no #17行,关闭保护模式
    5. port 26379 #21行,Redis哨兵默认的监听端口
    6. daemonize yes #26行,指定sentinel为后台启动
    7. logfile "/var/log/sentinel.log" #36行,指定日志存放路径
    8. dir "/var/lib/redis/6379" #65行,指定数据库存放路径
    9. sentinel monitor mymaster 192.168.10.23 6379 2 #84行,修改 指定该哨兵节点监控192.168.10.23:6379这个主节点,该主节点的名称是mymaster,最后的2的含义与主节点的故障判定有关:至少需要2个哨兵节点同意,才能判定主节点故障并进行故障转移
    10. sentinel down-after-milliseconds mymaster 30000 #113行,判定服务器down掉的时间周期,默认30000毫秒(30秒)
    11. sentinel failover-timeout mymaster 180000 #146行,故障节点的最大超时时间为180000180秒)
    12. 先启动主的哨兵再启动从
    13. 先启master,再启slave
    14. cd /opt/redis-5.0.7/
    15. redis-sentinel sentinel.conf &
    16. 查看哨兵信息
    17. redis-cli -p 26379 info Sentinel
    18. # Sentinel
    19. sentinel_masters:1
    20. sentinel_tilt:0
    21. sentinel_running_scripts:0
    22. sentinel_scripts_queue_length:0
    23. sentinel_simulate_failure_flags:0
    24. master0:name=mymaster,status=ok,address=192.168.20.23:6379,slaves=2,sentinels=3
    25. 验证:
    26. 查看redis-server进程号:
    27. ps -ef | grep redis
    28. root 57031 1 0 15:20 ? 00:00:07 /usr/local/bin/redis-server 0.0.0.0:6379
    29. root 57742 1 1 16:05 ? 00:00:07 redis-sentinel *:26379 [sentinel]
    30. root 57883 57462 0 16:17 pts/1 00:00:00 grep --color=auto redis
    31. 杀死 Master 节点上redis-server的进程号
    32. kill -9 57031 #Master节点上redis-server的进程号
    33. 验证结果
    34. tail -f /var/log/sentinel.log
    35. 79805:X 07 Sep 2023 17:08:37.177 * Increased maximum number of open files to 10032 (it was originally set to 1024).
    36. 79805:X 07 Sep 2023 17:08:37.178 * Running mode=sentinel, port=26379.
    37. 79805:X 07 Sep 2023 17:08:37.178 # WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value of 128.
    38. 79805:X 07 Sep 2023 17:08:37.180 # Sentinel ID is 4ce73c3499388c1028b71c23c356b1e2f906f13e
    39. 79805:X 07 Sep 2023 17:08:37.180 # +monitor master mymaster 192.168.10.23 6379 quorum 2
    40. 79805:X 07 Sep 2023 17:08:37.181 * +slave slave 192.168.10.15:6379 192.168.10.15 6379 @ mymaster 192.168.10.23 6379
    41. 79805:X 07 Sep 2023 17:08:37.182 * +slave slave 192.168.10.14:6379 192.168.10.14 6379 @ mymaster 192.168.10.23 6379
    42. 79805:X 07 Sep 2023 17:09:15.690 * +sentinel sentinel 946a5648761c8ad6272396e92529b34eff02c45b 192.168.10.14 26379 @ mymaster 192.168.10.23 6379
    43. 79805:X 07 Sep 2023 17:09:49.976 * +sentinel sentinel 3337d6842f02d53b41be547bea728133cab34449 192.168.10.15 26379 @ mymaster 192.168.10.23 6379
    44. 79805:X 07 Sep 2023 17:14:43.557 # +sdown master mymaster 192.168.10.23 6379
    45. 79805:X 07 Sep 2023 17:14:43.610 # +odown master mymaster 192.168.10.23 6379 #quorum 3/2
    46. 79805:X 07 Sep 2023 17:14:43.610 # +new-epoch 1
    47. 79805:X 07 Sep 2023 17:14:43.610 # +try-failover master mymaster 192.168.10.23 6379
    48. 79805:X 07 Sep 2023 17:14:43.611 # +vote-for-leader 4ce73c3499388c1028b71c23c356b1e2f906f13e 1
    49. 79805:X 07 Sep 2023 17:14:43.613 # 3337d6842f02d53b41be547bea728133cab34449 voted for 4ce73c3499388c1028b71c23c356b1e2f906f13e 1
    50. 79805:X 07 Sep 2023 17:14:43.613 # 946a5648761c8ad6272396e92529b34eff02c45b voted for 4ce73c3499388c1028b71c23c356b1e2f906f13e 1
    51. 79805:X 07 Sep 2023 17:14:43.669 # +elected-leader master mymaster 192.168.10.23 6379
    52. 79805:X 07 Sep 2023 17:14:43.670 # +failover-state-select-slave master mymaster 192.168.10.23 6379
    53. 79805:X 07 Sep 2023 17:14:43.773 # +selected-slave slave 192.168.10.14:6379 192.168.10.14 6379 @ mymaster 192.168.10.23 6379
    54. 79805:X 07 Sep 2023 17:14:43.773 * +failover-state-send-slaveof-noone slave 192.168.10.14:6379 192.168.10.14 6379 @ mymaster 192.168.10.23 6379
    55. 79805:X 07 Sep 2023 17:14:43.857 * +failover-state-wait-promotion slave 192.168.10.14:6379 192.168.10.14 6379 @ mymaster 192.168.10.23 6379
    56. 79805:X 07 Sep 2023 17:14:44.719 # +promoted-slave slave 192.168.10.14:6379 192.168.10.14 6379 @ mymaster 192.168.10.23 6379
    57. 79805:X 07 Sep 2023 17:14:44.719 # +failover-state-reconf-slaves master mymaster 192.168.10.23 6379
    58. 79805:X 07 Sep 2023 17:14:44.808 * +slave-reconf-sent slave 192.168.10.15:6379 192.168.10.15 6379 @ mymaster 192.168.10.23 6379
    59. 79805:X 07 Sep 2023 17:14:45.736 * +slave-reconf-inprog slave 192.168.10.15:6379 192.168.10.15 6379 @ mymaster 192.168.10.23 6379
    60. 79805:X 07 Sep 2023 17:14:45.736 * +slave-reconf-done slave 192.168.10.15:6379 192.168.10.15 6379 @ mymaster 192.168.10.23 6379
    61. 79805:X 07 Sep 2023 17:14:45.814 # -odown master mymaster 192.168.10.23 6379
    62. 79805:X 07 Sep 2023 17:14:45.814 # +failover-end master mymaster 192.168.10.23 6379
    63. 79805:X 07 Sep 2023 17:14:45.814 # +switch-master mymaster 192.168.10.23 6379 192.168.10.14 6379
    64. 79805:X 07 Sep 2023 17:14:45.815 * +slave slave 192.168.10.15:6379 192.168.10.15 6379 @ mymaster 192.168.10.14 6379
    65. 79805:X 07 Sep 2023 17:14:45.815 * +slave slave 192.168.10.23:6379 192.168.10.23 6379 @ mymaster 192.168.10.14 6379
    66. 79805:X 07 Sep 2023 17:15:15.860 # +sdown slave 192.168.10.23:6379 192.168.10.23 6379 @ mymaster 192.168.10.14 6379
    67. redis-cli -p 26379 INFO Sentinel
    68. # Sentinel
    69. sentinel_masters:1
    70. sentinel_tilt:0
    71. sentinel_running_scripts:0
    72. sentinel_scripts_queue_length:0
    73. sentinel_simulate_failure_flags:0
    74. master0:name=mymaster,status=ok,address=192.168.10.14:6379,slaves=2,sentinels=3

    四,集群

             1,概念

            集群,即Redis Cluster,是Redis 3.0开始引入的分布式存储方案。

            集群由多个节点(Node)组成,Redis的数据分布在这些节点中。集群中的节点分为主节点和从节点:只有主节点负责读写请求和集群信息的维护;从节点只进行主节点数据和状态信息的复制。

            2.作用

            (1)数据分区:数据分区(或称数据分片)是集群最核心的功能。
    集群将数据分散到多个节点,一方面突破了Redis单机内存大小的限制,存储容量大大增加;另一方面每个主节点都可以对外提供读服务和写服务,大大提高了集群的响应能力。
    Redis单机内存大小受限问题,在介绍持久化和主从复制时都有提及;例如,如果单机内存太大,bgsave和bgrewriteaof的fork操作可能导致主进程阻塞,主从环境下主机切换时可能导致从节点长时间无法提供服务,全量复制阶段主节点的复制缓冲区可能溢出。

            (2)高可用:集群支持主从复制和主节点的自动故障转移(与哨兵类似);当任一节点发生故障时,集群仍然可以对外提供服务。        

            3,Redis集群的数据分片:

            Redis集群引入了哈希槽的概念,Redis集群有16384个哈希槽(编号0-16383),集群的每个节点负责一部分哈希槽。
            每个Key通过CRC16校验后对16384取余来决定放置哪个哈希槽,通过这个值,去找到对应的插槽所对应的节点,然后直接自动跳转到这个对应的节点上进行存取操作。

            以3个节点组成的集群为例:节点A包含0到5460号哈希槽,节点B包含5461到10922号哈希槽,节点C包含10923到16383号哈希槽。
            4,Redis集群的主从复制模型
    集群中具有A、B、C三个节点,如果节点B失败了,整个集群就会因缺少5461-10922这个范围的槽而不可以用。
    为每个节点添加一个从节点A1、B1、C1整个集群便有三个Master节点和三个slave节点组成,在节点B失败后,集群选举B1位为的主节点继续服务。当B和B1都失败后,集群将不可用。

            5,实验

            redis的集群一般需要6个节点,3主3从。方便起见,这里所有节点在同一台服务器上模拟:以端口号进行区分:3个主节点端口号:6001/6002/6003,对应的从节点端口号:6004/6005/6006。

    1. cd /etc/redis/
    2. mkdir -p redis-cluster/redis600{1..6}
    3. for i in {1..6}
    4. do
    5. cp /opt/redis-5.0.7/redis.conf /etc/redis/redis-cluster/redis600$i
    6. cp /opt/redis-5.0.7/src/redis-cli /opt/redis-5.0.7/src/redis-server /etc/redis/redis-cluster/redis600$i
    7. done
    8. #开启群集功能:
    9. #其他5个文件夹的配置文件以此类推修改,注意6个端口都要不一样。
    10. cd /etc/redis/redis-cluster/redis6001
    11. vim redis.conf
    12. #bind 127.0.0.1 #69行,注释掉bind 项,默认监听所有网卡
    13. protected-mode no #88行,修改,关闭保护模式
    14. port 6001 #92行,修改,redis监听端口,
    15. daemonize yes #136行,开启守护进程,以独立进程启动
    16. cluster-enabled yes #832行,取消注释,开启群集功能
    17. cluster-config-file nodes-6001.conf #840行,取消注释,群集名称文件设置
    18. cluster-node-timeout 15000 #846行,取消注释群集超时时间设置
    19. appendonly yes #700行,修改,开启AOF持久化
    20. #启动redis节点
    21. 分别进入那六个文件夹,执行命令:redis-server redis.conf ,来启动redis节点
    22. cd /etc/redis/redis-cluster/redis6001
    23. redis-server redis.conf
    24. for d in {1..6}
    25. do
    26. cd /etc/redis/redis-cluster/redis600$d
    27. redis-server redis.conf
    28. done
    29. ps -ef | grep redis
    30. #启动集群
    31. redis-cli --cluster create 127.0.0.1:6001 127.0.0.1:6002 127.0.0.1:6003 127.0.0.1:6004 127.0.0.1:6005 127.0.0.1:6006 --cluster-replicas 1
    32. #六个实例分为三组,每组一主一从,前面的做主节点,后面的做从节点。下面交互的时候 需要输入 yes 才可以创建。
    33. --replicas 1 表示每个主节点有1个从节点。
    34. #测试群集
    35. redis-cli -p 6001 -c #加-c参数,节点之间就可以互相跳转
    36. 127.0.0.1:6001> cluster slots #查看节点的哈希槽编号范围
    37. 1) 1) (integer) 5461
    38. 2) (integer) 10922 #哈希槽编号范围
    39. 3) 1) "127.0.0.1"
    40. 2) (integer) 6003 #主节点IP和端口号
    41. 3) "fdca661922216dd69a63a7c9d3c4540cd6baef44"
    42. 4) 1) "127.0.0.1"
    43. 2) (integer) 6004 #从节点IP和端口号
    44. 3) "a2c0c32aff0f38980accd2b63d6d952812e44740"
    45. 2) 1) (integer) 0
    46. 2) (integer) 5460
    47. 3) 1) "127.0.0.1"
    48. 2) (integer) 6001
    49. 3) "0e5873747a2e26bdc935bc76c2bafb19d0a54b11"
    50. 4) 1) "127.0.0.1"
    51. 2) (integer) 6006
    52. 3) "8842ef5584a85005e135fd0ee59e5a0d67b0cf8e"
    53. 3) 1) (integer) 10923
    54. 2) (integer) 16383
    55. 3) 1) "127.0.0.1"
    56. 2) (integer) 6002
    57. 3) "816ddaa3d1469540b2ffbcaaf9aa867646846b30"
    58. 4) 1) "127.0.0.1"
    59. 2) (integer) 6005
    60. 3) "f847077bfe6722466e96178ae8cbb09dc8b4d5eb"
    61. 127.0.0.1:6001> set name zhangsan
    62. -> Redirected to slot [5798] located at 127.0.0.1:6003
    63. OK
    64. 127.0.0.1:6001> cluster keyslot name #查看name键的槽编号
    65. redis-cli -p 6004 -c
    66. 127.0.0.1:6004> keys * #对应的slave节点也有这条数据,但是别的节点没有
    67. 1) "name"
  • 相关阅读:
    [HDLBits] Exams/2014 q4b
    Cookie、Session、Token、JWT详解
    C陷阱与缺陷 第7章 可移植性缺陷 7.7 除法运算时发生的截断
    单片机最小系统
    云计算修罗场
    常见的海量数据面试题总结
    关于暖气不热的9大问题与解答
    【无标题】
    word简历排版技巧
    分享:新入职时,如何快速熟悉一个项目的代码
  • 原文地址:https://blog.csdn.net/qq_61855329/article/details/132752228