• Redis源码分析-存储原理与数据模型


    redis源码学习

    redis是单线程,分治  , 内存

    wsl2安装

    安装 WSL | Microsoft Docs

    vscode

    开始通过 WSL 使用 VS Code | Microsoft Docs

    c/c++基本配置

    Get Started with C++ and Windows Subsystem for Linux in Visual Studio Code

    Redis是不是单线程?

    单线程指什么?

            命令处理在一个线程中

    命令处理为什么是单线程的?

    单线程的局限:

    1 不能有耗时的操作

    2 对于redis而言会影响响应的性能

    redis有没有io密集型或cpu密集型:

    io密集型:

            磁盘io:

                    1 redis通过fork子进程的方式,在子进程当中持久化。不会干扰主进程处理相对应的命令。

                    2 异步刷盘:当前的这个进程接收到redis命令会引起数据变更的时候,直接在当前这个进程刷盘到aof文件中。

            网络io:

                    1 服务多个客户,造成io密集

                    2 数据请求或返回数据量比较大

                    3 开启io多线程

    cpu密集型:

            redis采用key ,value对,value支持丰富的数据结构,如果采用的数据结构不太高效

    为什么不采用多线程?

    1 加锁复杂,锁粒度不好控制。

    2 频繁的cpu上下文切换,抵消多线程的优势。

    字典实现

    redis DB KV组织是通过字典来实现的;hash结构当节点超过 512 个或者单个字符串长度大于 64 时,hash结构采用字典实现;

     redis有16个db  通过   select + 编号   可以选择db  通常只用一个,最主要的是dict结构

     dicht 是 dic hash table ,最重要的一个数据结构

    数据结构

    1. typedef struct dictEntry {
    2. void *key;
    3. union {
    4. void *val;
    5. uint64_t u64;
    6. int64_t s64;
    7. double d;
    8. } v;
    9. struct dictEntry *next;
    10. } dictEntry;
    11. typedef struct dictht {
    12. dictEntry **table;
    13. unsigned long size;// 数组长度
    14. unsigned long sizemask; //size-1
    15. unsigned long used;//当前数组当中包含的元素
    16. } dictht;
    17. typedef struct dict {
    18. dictType *type;
    19. void *privdata;
    20. dictht ht[2];
    21. long rehashidx; /* rehashing not in progress if rehashidx == -1 */
    22. // 从0位置开始rehash
    23. int16_t pauserehash; /* If >0 rehashing is paused (<0 indicates coding
    24. error) 用于安全遍历*/
    25. } dict;

    1. 字符串经过hash函数运算得到64位整数;然后对size长度进行取余得到index

    2. 相同字符串多次通过hash函数得到相同的64位整数;

    3. 整数对2的n次幂取余可以转化为位运算;

    4. 抽屉原理 n+1个苹果放在n个抽屉中,苹果最多的那个抽屉至少有2个苹果;64位整数远大于数组的长度,比如数组长度为4,那么1、5、9、1+4n都是映射到1号位数组;所以大概率会发生冲突;

    冲突

     负载因子

    负载因子 = used / size ; used 是数组存储元素的个数, size 是数组的长度; 负载因子越小,冲突越小;负载因子越大,冲突越大; redis的负载因子是 1 ;

    扩容

    如果负载因子 > 1 ,则会发生扩容;扩容的规则是翻倍;

    如果正在 fork (在rdb、aof复写以及rdb-aof混用情况下)时,会阻止扩容;但是此时若负载因 子 > 5 ,索引效率大大降低, 则马上扩容;这里涉及到写时复制原理;

    写时复制

    写时复制核心思想:只有在不得不复制数据内容时才去复制数据内容;

     缩容

    如果负载因子 < 0.1 ,则会发生缩容;缩容的规则是恰好包含 used 的 2的n次方;

    恰好的理解:假如此时数组存储元素个数为9,恰好包含该元素的就是 ,也就是 16;

    缩容之后会发生rehash,因为缩容之后size改了

    为什么是<0.1而不是 < 1 , 因为如果是 < 1 的话会造成扩缩容频繁,会造成内存操作频繁,造成io密集。

    渐进式rehash

    当 hashtable 中的元素过多的时候,不能一次性 rehash 到 ht[1] ;这样会长期占用 redis , 其他命令得不到响应;所以需要使用渐进式 rehash ;

    rehash步骤:

    将 ht[0] 中的元素重新经过hash函数生成64位整数,再对 ht[1] 长度进行取余,从而映射到 ht[1] ;

    渐进式规则:

    1. 分治的思想,将 rehash 分到之后的每步增删改查的操作当中;

    2. 在定时器中,最大执行一毫秒 rehash ;每次步长 100 个数组槽位;

    面试:

    处于渐进式rehash阶段时,是否会发生扩容缩容?不会!

    scan

    提出疑问:扩容的情况 4 scan 0

    scan cursor [MATCH pattern] [COUNT count] [TYPE type]

    采用高位进位加法的遍历顺序, rehash 后的槽位在遍历顺序上是相邻的;

    遍历目标是:从scan开始那刻起redis已经存在的数据进行遍历,不会重复和遗漏 ; 

    redis只能保证不遗漏,但是可能会重复。会出现一种重复的情况:在scan过程当中,发生两次缩容的时候,可能会发生数据重复;比如scan快结束了,现在插入大量数据,这些数据肯定遍历不到。扩容和缩容造成映射算法发生改变,但是使用高位进位累加的算法,可以对scan那刻起已经存在的数据的遍历不会出错。

    如果项目中用到了scan命令,在server端要自己去重。

    rehash源码

      移动1步

     对dict进行增删改查的时候,这里的增删改查对应了每一次客户端的命令操作,不可以一次性全部移动(耗时)

    移动1ms

    在定时器里调用,定时器每100ms调用一次进行1ms的渐进式rehash。reactor模型,一次事件循环,在网络事件处理完之后在定时事件当中分1ms处理一下

    redis单线程为什么这么快?

    redis对象编码

    expire机制

    1. # 只支持对最外层key过期;
    2. expire key seconds // 会加入到一个全局的字典当中
    3. pexpire key milliseconds // 设置key有效时间 毫秒为单位
    4. ttl key // 查看key还有多少秒过期
    5. pttl key // 查看key还有多少毫秒过期

    惰性删除

    分布在每一个命令操作时检查 key 是否过期;若过期删除 key ,再进行命令操作;

    定时删除

    在定时器中检查库中指定个数(25)个 key;

    1. #define ACTIVE_EXPIRE_CYCLE_KEYS_PER_LOOP 20 /* Keys for each DB loop. */
    2. /*The default effort is 1, and the maximum configurable effort
    3. * is 10. */
    4. config_keys_per_loop = ACTIVE_EXPIRE_CYCLE_KEYS_PER_LOOP +
    5. ACTIVE_EXPIRE_CYCLE_KEYS_PER_LOOP/4*effort,
    6. int activeExpireCycleTryExpire(redisDb *db, dictEntry *de, long long now);

    大KEY

    在redis实例中形成了很大的对象,比如一个很大的hash或很大的zset,这样的对象在扩容的时 候,会一次性申请更大的一块内存,这会导致卡顿;如果这个大key被删除,内存会一次性回收, 卡顿现象会再次产生;

    如果观察到redis的内存大起大落,极有可能因为大key导致的;

    1. # 每隔0.1秒 执行100条scan命令
    2. redis-cli -h 127.0.0.1 --bigkeys -i 0.1

    跳表实现

     理想跳表

    redis跳表

     从节约内存出发,redis 考虑牺牲一点时间复杂度让跳表结构更加变扁平,就像二叉堆改成四叉堆 结构;并且redis 还限制了跳表的最高层级为 32 ;

    节点数量大于 128 或者有一个字符串长度大于 64 ,则使用跳表( skiplist );

    1 多层级有序链表

    2 可以二分查找的数据结构

    3 最底层包含所有元素

    4 范围查询非常方便,通过O(log2n) 的时间复杂度快速找到边界,然后在最底层找到范围内的所有元素

    5 增删改查时间复杂度都是O(log2n)

    数据结构

    1. #define ZSKIPLIST_MAXLEVEL 32 /* Should be enough for 2^64 elements */
    2. #define ZSKIPLIST_P 0.25 /* Skiplist P = 1/4 */
    3. /* ZSETs use a specialized version of Skiplists */
    4. typedef struct zskiplistNode {
    5. sds ele;
    6. double score; // WRN: score 只能是浮点数
    7. struct zskiplistNode *backward;
    8. struct zskiplistLevel {
    9. struct zskiplistNode *forward;
    10. unsigned long span; // 用于 zrank
    11. } level[];
    12. } zskiplistNode;
    13. typedef struct zskiplist {
    14. struct zskiplistNode *header, *tail;
    15. unsigned long length; // zcard
    16. int level; // 最高层
    17. } zskiplist;
    18. typedef struct zset {
    19. dict *dict; // 帮助快速索引到节点
    20. zskiplist *zsl;
    21. } zset;

    结构图

    应用

    延时队列优化

    前面实现的延时队列有很大的局限性;

    1. 时间基准问题;两个应用程序如何保证时间一致;

    2. 异步轮询的问题;耗性能,大量无意义的数据请求;

    3. 原子性的问题;需要引入lua脚本来执行;

    解决:

    1. 以redis的时间为基准,redis为数据中心且为单点,时间准确性得到大幅提升;

    2. 通过阻塞接口来实现,避免轮询;

    3. 修改源码,直接实现原子接口;

    思路

    1. # 在redis当中 zset结构 score = time + 5
    2. dq_add "delay_queue" 5 msg
    3. # 如果没有消息pop,则将此连接加入阻塞队列,然后在redis的定时器中 比较 zset 最小的值与当前
    4. time的大小 如果满足条件,通知阻塞队列中的连接;
    5. dq_bpop "delay_queue" timeout 60

    redis io多线程

    使用io多线程总前提:      多个并发连接,一条连接是不会使用io多线程的

    在redis.conf中有一个一个主线程,另外开了3个线程。

  • 相关阅读:
    python二次开发Solidworks:修改实体尺寸
    【CPP】栈简介及简化模拟实现
    js模块化
    Redis 分布式锁
    文心一言 VS 讯飞星火 VS chatgpt (280)-- 算法导论20.4 1题
    5.21.1.1 Set Feature Command - Arbitration
    mysql数据库
    【无标题】
    创建django文件
    “AI教父”Geoffrey Hinton:智能进化的下一个阶段
  • 原文地址:https://blog.csdn.net/jianfeng123123/article/details/121743521