• 黑马--Redis篇


    学习链接:https://www.bilibili.com/video/BV1cr4y1671t?p=1&vd_source=510ec700814c4e5dc4c4fda8f06c10e8

    狂神笔记:https://www.cnblogs.com/meditation5201314/p/14882992.html#redis%E4%BA%94%E7%A7%8D%E5%9F%BA%E6%9C%AC%E6%95%B0%E6%8D%AE%E7%B1%BB%E5%9E%8B

    代码地址:https://gitee.com/empirefree/SpringBoot-summarize

    可能是因为老师根据项目代码讲得,播放量才这么低,其实老师讲得很好的,完全可以不根据项目,自己建个小项目就单纯使用基本redis就行。在高级篇的时候搭建集群、canal这些都跳过了,先熟悉记录下,以后用到了再说

    csdn csdn csdn csdn csdn


    🔥1. 基础篇

    1.1 前言

    狂神说–Redis学习笔记:https://www.cnblogs.com/meditation5201314/p/14882992.html

    	之前学完狂神讲的Redis,就自我感觉Redis学懂了,看到了尚硅谷发的Redis篇章,才发现自己只不过才学了点基础皮毛,实际高级内容、实战演练、原理都没有了解,果然还得是谦逊前进呀。
    
    • 1

    1.2 基本类型

    1.2.1 String
    setnx mykey 111
    
    • 1
    1.2.2 List

    先进去的后出来,可看成栈,也可以做队列

    1.2.3 set

    值不可重复

    1.2.4 Hash

    key map

    1.2.5 Zset

    zset key score value

    -- z1集合添加元素m2,分数为2
    zadd z1 2 m2
    --逆序从索引1开始输出2个元素
    zrevrange z1 1 2 withscores
    -- 查询z1中最大1000分最小0分,0:偏移量小于等于1000的3个元素
    zrevrangeByScore z1 1000 0 withscores limit 0 3
    -- 1:代表小于上次返回最大分数的3个元素(分数相同会存在重复返回)
    zrevrangeByScore z1 上次返回最大分数 0 withscores limit 1 3
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    1.3 连接池

    1.3.1 连接池类型

    1.jedis

    2.SpringDataRedis:提供了redisTemplate

    1.3.2 RedisTempalte
    1.3.2.1 基本概念

    1.内部实现了jdk序列化

    2.关于乱码:由于SpringMVC内置了jackson-Binder之类的序列化


    🔥2. 实战篇

    2.1. 短信登录(略)

    ​ 之前做过很多了,个人简单看了写原理就跳过了

    2.2. 数据缓存

    2.2.1 基本概念
    2.2.1.1 缓存更新策略
    1. 采用删除缓存
    2. 如何保证缓存和数据库数据一致性
      1. 单体项目:缓存和数据库放到同一个事务中
      2. 分布式事务:TCC事务方案
    3. 先操作数据库or先删除缓存(这里一般指的是用户请求,商家后台更新数据的情况,当然,整个操作用事务或者分布式锁实现也行)
      1. 先删缓存,再操作数据库:A先删了,B在A未更新前读取写入缓存就会写入错误数据
      2. 先操作数据库,再操作缓存:A先操作数据库,B在A操作前读取数据库写入缓存也会读取到错误数据
      3. 延时双删(请求前删除,更新库后延时3~5秒,然后再删):之所以延时就是为了保证A删缓存操作数据库后未执行完,B一来又读取错误数据,然后发生脏读,就是为了保证B执行完,不过俺觉得意义不大,并发情况下还是得用事务或者分布式锁。简单了解下吧。

    image-20220616173417844

    2.2.1.2 乐观锁/悲观锁

    乐观锁 + 事务:能实现数据一致性,适合并发竞争小的情况(因为避免了数据频繁更新,采用的是CAS capare and swap自旋或版本号机制2种方式)

    悲观锁 + 事务:每次读取前加锁

    2.3 分布式锁

    2.3.1 基本概念

    分布式锁:分布式系统或集群模式下多线程之间互相可见并且互斥的锁

    image-20220616173337080

    2.3.2 Redisson原理
    2.3.2.0 分布式锁问题

    基于setnx导致的分布式锁存在4个问题,而Redisson可以解决:

    1. 不可重入:setx线程同一个线程可以重复获取同一把锁
    1. 不可重试:setnt获取锁只尝试一次没有重试
    1. 超时释放:setnx业务执行过长就会自动被删除了锁。(但是如果你不设置超时时间服务重启了的话那后续key值一直存在)
    1. 主从一致性:setnx中,主设置了锁,宕机后从库变成主库,然后外部依然能获取锁
    
    • 1
    • 2
    • 3
    • 4
    2. Redisson可重入锁

    获取锁:

    // 判断是否存在,能获取则获取
    if (redis.call('exists', KEYS[1]) == 0) 
    	then 
        redis.call('hincrby', KEYS[1], ARGV[2], 1); 
    	redis.call('pexpire', KEYS[1], ARGV[1]); 
    	return nil; 
    end; 
    //根据threadid判断锁是不是自己的,获取锁次数加一,然后重置有效期
    if (redis.call('hexists', KEYS[1], ARGV[2]) == 1) 
        then 
        redis.call('hincrby', KEYS[1], ARGV[2], 1); 
    	redis.call('pexpire', KEYS[1], ARGV[1]); 
    	return nil; 
    end; 
    //否则返回锁获取失败
    return redis.call('pttl', KEYS[1]);
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16

    ​ 释放锁:

    //如果锁次数=0,则直接释放
    if (redis.call('hexists', KEYS[1], ARGV[3]) == 0) 
        then return nil;
    end; 
    //如果锁次数大于0,重置有效期,数减一然后返回。否则说明锁==0,可以直接删除发布订阅
    local counter = redis.call('hincrby', KEYS[1], ARGV[3], -1); 
    if (counter > 0) 
        then 
        redis.call('pexpire', KEYS[1], ARGV[2]); 
    	return 0; 
    else 
        redis.call('del', KEYS[1]); 
    	redis.call('publish', KEYS[2], ARGV[1]);   //删除锁有订阅,供后续获取锁失败重试机制的线程使用
    	return 1; 
    end; 
    return nil;
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    2.3.2.2 基本流程

    image-20220618151325801

    //获取锁和释放锁的源码在这2个函数内容
    // tryLock的3个参数: 获取锁等待时间(默认不等待)   释放锁时间, 时间单位
    boolean isLock = rLock.tryLock(1, 10, TimeUnit.SECONDS);
    rLock.unlock();
    
    • 1
    • 2
    • 3
    • 4
    1. 加锁
     	1. 线程a先执行Lua脚本获取锁,获取成功(默认释放锁时间30秒)LUA脚本保证了同样线程id获取锁**可重入**
         	1. 若设置了锁释放时间,则不执行看门狗的锁刷新机制
         	2. 若没设置,则默认使用看门口锁释放时间30秒,执行看门狗刷新机制。
             	1. 递归每看门口时间 / 3 = 10秒刷新该线程id的有效期,保证了不会**超时就删锁**(因为默认30秒比10秒多)
     	2. 线程b执行Lua脚本失败,进行等待时间的订阅,然后重新获取锁,收到了订阅就按照等待时间是否剩余进行重试,没收到订阅时间到了就退出----保证了等待时间优先级最高,实现了**可重试**
    
    		2. 解锁
         			1.  释放订阅消息
         			2. 取消看门狗
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    Redisson分布式锁

    ​ 1.可重入:利用hash 存储线程id与重入次数

    ​ 2.可重试:利用发布订阅和循环等待实现锁重试(保证在等待时间内)

    ​ 3.超时续约:利用watchDog,每隔一段时间(releaseTime / 3)重置

    ​ 4.主从一致性:利用multiLock获取全部主节点锁才能成功(安置了多个主节点)

    2.4 商品秒杀

    2.4.1 基本概念

    ​ 1、Redis秒杀资格判断(Lua脚本保证原子性)。保存相关信息到阻塞队列

    ​ 2、异步处理订单,扣减库存

    image-20220620192536824

    2.4.2 秒杀资格–Lua脚本
    -- 判断库存、判断用户是否下单,扣减库存
    
    -- 获取参数的券id、用户id
    local voucherId = ARGV[1]
    local userId = ARGV[2]
    local stockKey = 'seckill:stock:' .. voucherId
    local orderKey = 'seckill:order:' .. voucherId
    
    --
    if(tonumber(redis.call('get', stockKey)) <= 0) then
        return 1
    end
    if(redis.call("sismember", orderKey, userId) == 1) then
        return 2
    end
    redis.call('incrby', stockKey, -1)
    redis.call("sadd", orderKey, userId)
    return 0
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    2.4.3 秒杀下单–阻塞队列异步实现

    ​ 0、提前加载阻塞队列读取

    ​ 1、Redis进行资格判断,将有资格的放入队列

    ​ 2、线程池异步读取队列数据

    (问题:阻塞队列是基于jvm内存来存储数据,服务宕机,高并发都会导致数据有问题)

    2.4.4 Redis-消息队列
    2.4.4.1 基本概念

    ​ 存放消息的队列,双向链表,采用[LPush, BRPOP],或[Rpush, BLPOP]这些实现阻塞队列。

    2.4.4.2 List消息队列

    ​ 优点:

    	1. 基于Redis存储,不受限与JVM内存
    	2. 基于Redis数据持久化
    
    • 1
    • 2

    ​ 缺点:

    		1. 无法避免消息丢失
    		2. 只能支持单消费者,无法让多个消费者使用
    
    • 1
    • 2
    2.4.4.3 PubSub消息队列
    -- 发布
    publish order.q1.hello
    --订阅
    subscribe order.q1
    --订阅: 支持通配符 *0个或多个 ?一个或多个 []满足内部条件
    PSUBSCRIBE order.*
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    ​ 支持多生产,多消费

    ​ 不支持数据持久化,无法避免消息丢失,消息易堆积

    2.4.4.4 Stream消息队列
    --添加stream队列,*表示由redis生成消息id
    -- 队列一:类似于队列中存所有,但是阻塞读取却读取最新的,会存在覆盖
    xadd s1 * k1 v1
    --队列长度
    xlen s1
    --读取一条队列消息,从0开始读取
    xread count 1 streams s1 0
    --读取一条消息,从最新开始读取,永久等待
    xread count 1 block 0 streams s1 $
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    1. 消息永久存在,可回溯,可阻塞读取,可被多个消费者读取
    2. 由于每次读取最新的,会存在读取前消息漏读被覆盖的风险,和pubsub类型

    消息分流:消息分给不同的组里面去

    消息标识:类似于书签,标记读到了哪个消息,服务宕机重启后继续从标识读取(这样就避免了消息漏读情况)

    消息确认:消息发送后会处于pending,发送完成后发送XACK确认,然后队列移除该消息


    消息组模式

    ​ 1、多个消费者争抢读取消息

    ​ 2、可以阻塞读取,消息可回溯

    ​ 3、没有消息漏读风险,消息可回溯

    -- 0代表第一个消息,$代表最后一个消息
    -- >表示下一个未消费的消息,"其他"表示已消费但未确认的消息. c1表示消费者名。
    -- 队列二:发送失败没有被确认的消息进入pengding-list,类似于一个指针标记第一个位置,另一个指针不断往后走
    --把stream流s1放入到g1中,从第一个开始
    xgroup create s1 g1 0
    xreadgroup group g1 c1  count 1 block 2000 streams s1 > 
    -- 根据消息id确认消息
    xack s1 g1 1655878247936-0
    --查看pending-list中所有时间段内的10条消息
    xpending s1 g1 - + 10
    --读取pending-list中未被确认的第一条消息
    xreadgroup group g1 c1 count 1 block 2000 streams s1 0
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13

    ​ [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-WWIDBab1-1656671557221)(…/…/…/…/…/Roaming/Typora/typora-user-images/image-20220622145459299.png)]


    实战

    --MKSTREAM: 流不存在则自动创建
    xgroup create stream.orders g1 0 MKSTREAM
    
    --Lua脚本往队列丢数据。另起一个线程循环读取队列数据,并做ack确认
    
    • 1
    • 2
    • 3
    • 4

    2.5 业务汇总

    2.5.1 点赞功能

    Redis根据文章id—key值增减,然后同步到库表中

    2.5.2 关注功能

    ​ 在每次关注用户后,利用follows-id作为key,采用set修改redis中关注情况,然后同步到库表中

    2.5.3 Feed流
    2.5.3.1 基本概念

    ​ Feed流:主动给用户推送用户感兴趣的东西

    ​ 1.TimeLine:简单内容列表筛选

    ​ 2.智能排序:智能算法过滤

    2.5.3.2 实现方案

    ​ 拉模式:用户拉取自己关注人信息,但是关注太多容易耗内存

    ​ 推模式:博主每次发布都推送给自己关注的人,自己粉丝太多也不现实

    ​ 推拉模式:人分成大V和普通人,粉丝分成活跃粉丝和僵尸粉,普通人就拉自己关注人的信息,普通人就推送自己信息给粉丝

    2.5.3.3 滚动分页

    ​ 由于传统id排序逆序时会导致数据不断刷新,所有原始limit offset不可取,采用redis中sortset,利用一个定点score来保证读取固定。redis中就采用时间来作为scoer

    2.5.3.4 店铺距离

    ​ 采用Geo举例导入计算

    2.5.3.5 用户签到

    ​ 由于在库表中存每个用户每日签到数据量太大,所以可以采用bit位来存储,只要把时间作为key值,也极大方便后续查询统计日期

    2.5.3.6 PV/UV

    ​ 统计PV,UV这些可以使用hyperloglog允许些许误差。


    🔥3.高级篇

    3.1. 分布式缓存

    3.1.1 RDB

    ​ RDB:默认save是主进程保存,bgsave是fork一个子进程进行保存

    3.1.2 AOF

    ​ AOF: 记录指令,然后替换上个aof文件

    3.1.3 进程缓存

    ​ 分布式缓存:访问缓存有网络开销,集群可以共享,缓存数据量大

    ​ 进程缓存:访问本地内存速度更快,但容量有限

    3.1.4 Canal

    ​ canal就是模拟salve把Redis-master的binlog读取到slave运行。

    ​ 每当数据库数据修改,canal就监听然后修改数据到数据库中

    3.2. 实践设计

    3.2.1 基本设计

    ​ 1.key 的设计 [业务名称]:[数据名]:[id]

    2. 删除bigkey:另起一个线程异步删除值
    2. **建议使用hash存储**,key可以使用数据量 %100这种,field使用key,value(内存占用非常少,因为使用zipList,默认不要超过key值500)
    2. 批处理入库数据:sadd,mset入库快
    2. Redis主从能达到上w级别的QPS,尽量不要搭建集群。
    
    • 1
    • 2
    • 3
    • 4
    3.2.2 服务器优化

    ​ 1.尽量不要开启持久化功能

    ​ 2.建议开启AOF持久化


    🔥4.原理篇

    4.1 数据结构

    4.1.1 基本概念

    ​ Redis:底层是C写的

    4.1.2 动态字符串SDS

    ​ Redis中key, value都是采用单个或多个字符串SDS来存储,SDS本质是个结构体,分成字符串头(记录字符串长度)、体(存储真实数据)

    4.1.3 IntSet

    ​ int的set:整数唯一数组,内部采用二分查询查询

    4.1.4 Dict

    ​ 由3部分组成:dictHashTable哈希表,dictEntry哈希结点,dict字典

    哈希表构成就是dicEntry这种key, value值

    Dict字典包含2个哈希表,用于扩容和收缩,底层就是数组+链表来解决hash冲突

    (总结dict底层就是hash表,是有数组和单向链表来实现,其中保存的就是key, value的Entry键值对,用指针这种来SDS对象)

    4.1.5 ZipList

    ​ 压缩列表是由连续内存空间的列表,没有使用指针链接,而是记录了上个节点寻址。因为如果采用dict这种指针选择,内存碎片太多,指针字节占用太多。

    4.1.6 QuickList

    ​ 节点为zipList的双向链表,兼容了zipList申请连续过多的内存空间,与链表指针消耗过多内存空间的优点。

    4.1.7 SkipList跳表 *

    ​ 跳表是链表,元素按升序排序,然后不断在元素之间往上建立指针,和MySQL索引建立类似,方便后续查找,CURD效率与红黑树一样log(n)

    4.1.8 RedisObject

    ​ RedisObject包含了5中数据类型,然后5中下面编码方式就是上面跳表,zipList,quickList这些。(typerloglog,bitmap,bitmap底层也就是string,zset)

    image-20220625152533446

    4.2 网络模型

    4.2.1 IO多路复用

    ​ 利用单线程同时监听多个服务。分为select,poll, epoll。

    select每次都要拷贝监听服务的FD从用户到内核耗时

    epoll就把就绪的监听服务FD保存下来,然后每次就不用遍历所有FD

    4.2.2 模型比较

    ​ 目前还是IO多路复用用的比较多

    image-20220625155858540

    4.2.3 Redis网络模型

    ​ Redis6.0之后引入了多线程,之前都是单线程

    4.2.4 Redis策略

    ​ Redis中采用dict记录了key的TTL时间

    4.2.4.1 过期-删除策略
    1. 惰性清理:每次查找key,过期就删除
    1. 定期清理:定期抽取key,过期就删除
    
    • 1
    • 2

    4.2.4.2 淘汰策略

    ​ 8种策略:默认不淘汰任何key,内存满了不允许写入行数据

    image-20220625160745798

  • 相关阅读:
    【动手学深度学习PyTorch版】15 池化层
    tsp可视化python
    剑指offer 49. 最长不含重复字符的子字符串
    Python3,区区5行代码,让黑白老照片变成华丽的彩色照,被吸粉了。
    面试:ANR原因及排查
    【CFD小工坊】浅水方程的离散及求解方法
    企业搭建网站选择什么配置的云服务器比较合适?
    网站强制跳转至国家反诈中心该怎么办?怎么处理?如何解封?
    智慧城市建设解决方案分享【完整】
    【【萌新的SOC学习之AXI IP代码解释】】
  • 原文地址:https://blog.csdn.net/Empire_ing/article/details/125564063