• 一篇文章搞定Redis Stream


    今天给大家带来一篇关于Redis Stream的文章,文章会从消息队列的基本概念、然后基于Redis Stream基本操作,顺带着会讲Redis Stream的存储结构,最后配合在Spring Boot框架来讲解实战。阅读完这篇文章以后,基本上就能把Redis Stream拿捏住。

    话不多说,开始~

    也还是老规矩,先上导读图。

    搞定Redis Stream

    概念

    Redis Stream 是Redis5.0推出的一种专门用来处理消息队列场景的高级数据结构,是Redis下消息队列的最佳实现。

    stream全局图-不是我画的

    这是一个很好的Redis Stream知识体系图,现在看着看不懂这个图也没有关系,我会由浅入深的给大家剖析该体系图。

    什么是消息队列

    队列是一种数据结构,对应到我们生活中的例子,就是排队。讲究着先来先处理的原则,目的是为了避免混乱与系统瘫痪。

    消息队列把我们具体的业务,都抽象成为“消息”。排队做核酸,也可以叫做“核酸”队列。

    刚说了队列是为了避免混乱与系统瘫痪,它还有一些其他的作用:

    1. 消峰填谷

    这点表现最明显的就是我们常说的秒杀系统,访问量在某一个刻,到达巅峰,然后又断崖式下跌。

    根据具体的业务场景,把业务处理的压力压入到消息队列中,以时间轴为水平线,来处理业务。

     

    消峰填谷

    1. 异步解耦

    假如有一个电商系统,在商品下单后,需要通知客服小二核对地址,需要通知物流仓储系统发货,需要营销中心发放优惠券 等等一些业务。

    异步解耦

    消息队列还有一些其他的作用,以上两个是比较典型的。

    在Reids没有推出Stream数据类型的时候,我们也可以用Redis来做消息队列。分别是利用Reids的list和订阅/发布两种数据类型。

    1. list

    用push命令压入队列,用pop命令来拿出队列里边的消息。

    1. ## 在 lianbianKey 里边压入2个消息,messageContent1、messageContent2
    2. lpush lianbianKey messageContent1
    3. lpush lianbianKey messageContent2
    4. ## 在另外一端,lpop命令取出元素
    5. ## lpop移除并获取第一个元素
    6. lpop lianbainKey
    1. 订阅/发布

    这个模式,和我们平常看电视频道类似,把电视台切换到湖南卫视,你就能自然看到当前电视台播放的节目(快乐大本营、天天向上 ...),就相当于你订阅了湖南卫视频道,在湖南卫视电视台发布节目的时候,你就能够很自然的接收到。但是这种模式有一个弊端,就是错过了就是错过了,错过了19:00的新闻联播,就是错过了。

    都能实现消息队列,为什么Redis在5.0的版本里,还推出Stream数据类型呢?与list和订阅/发布又有什么异同呢?

    为什么要Redis Stream

    1. 标准化操作

    在没有Redis Stream推出的时候,我们知道利用Reids能够实现队列功能,但是大家实现得五花八门,没有一个统一的、标准的实现方式。最后导致的就是Redis队列生态显得乱,在推出Stream之后,后续实现队列都会使用该新的数据类型,利于标准化。

    1. 取长补短

    不管是list还是订阅/发布模式,都有其弊端,比如list不能友好的重复消费,需要重复消费的话,需要程序代码去控制;而订阅/发布模式是一种转发消息的模式,只有订阅者在线的时候才能接收到消息,订阅者不在线期间产生的消息,就丢掉了。而Stream,有借鉴Kafka一些市面上成熟的消息队列的思想,可以消费失败重复消费,消息是持久化的。

    1. 降低门槛

    不管是之前的list还是订阅/发布模式,其实就不能说是严谨的消息队列,它只能说是我们实现消息列队的基本数据结构,而Stream可以说是降低了我们在Redis中使用消息队列的门槛,封装了一些消费者常见的角色(生产者、主题、元素、消费者、消费组)。

    消息队列的几个重要元素

    从上面的讲解,我们把消息队列中的几个概念再着重讲一下,如果熟悉其他的消息队列的,还是很容易理解。

    1. 生产者

    生产消息的服务或者项目,比如上边例子中的商品下单

    1. 主题

    主题就相当于我们电视台的频道,生产者负责把消息往主题里边塞,塞进消息之后,监听了该主题的消费者会从该主题里边拿出消息。在Redis Stream里边,主题名称就是我们的stream key键值。现在不懂也没关系,在后边直观体验环节能够直观感受到。

    1. 元素

    也可以叫做消息,就是我们生产者往主题里边塞的内容,都可以称之为消息元素

    1. 消费者

    监听主题拿出消息,对消息进行处理的,叫做消费者。如最上边例子中的拿订单号的仓库系统、物流系统、营销系统。

    讲完了基本理论,我们用命令行的方式直观感受一下Redis Stream。

    直观体验Redis Stream

    安装

    windows下,很多开发的时候,还是使用3.0+的版本redis(微软编译的安装包,但是一直没更新了。),但是Stream是Redis5.0的新特性,在github上找到了大牛的编译版本:

    https://github.com/tporadowski/redis/releases

    也可以关注我的公众号回复redis5获取百度网盘下载地址。

    在安装好之后,就可以进行命令行的玩转了。

    进入redis命令行

    redis命令行

    创建主题并创建消息

    创建lianbianKey主题,追加 nickName LianBian。

    XADD key ID field string [field string ...]

     

    xadd追加和创建主题

    可视化工具查看:

    可视化工具查看

    独立消费

    消费在lianbianKey主题中刚追加 nickName LianBian消息。

    语法:

    XREAD [COUNT count] [BLOCK milliseconds] STREAMS key [key ...] ID [ID ...]
    

    其中:

    1. [COUNT count],用于限定获取的消息数量;
    2. [BLOCK milliseconds],用于设置XREAD为阻塞模式,默认为非阻塞模式;
    3. ID,用于设置由哪个消息ID开始读取。使用0表示从第一条消息开始。(本例中就是使用0)此处需要注意,消息队列ID是单调递增的,所以通过设置起点,可以向后读取。在阻塞模式中,可以使用,表示最新的消息。(在非阻塞模式下无意义)。

    XRED读消息时分为阻塞和非阻塞模式,使用BLOCK选项可以表示阻塞模式,需要设置阻塞时长。非阻塞模式下,读取完毕(即使没有任何消息)立即返回,而在阻塞模式下,若读取不到内容,则阻塞等待。

    xread block 10000 streams lianbianKey $
    

    阻塞读取lianbianKey主题的消息,最长阻塞10s,读到内容之后,立即返回。

     

    阻塞消费

    典型的队列就是 XADD 配合 XREAD Block 完成。XADD负责生成消息,XREAD负责消费消息。

    消费组模式

    上边讲解的是一个消费者的模式,也是独立消费模式;Redis Stream也支持消费组模式,这点是借鉴了kafka的思想。当我们的生产者生产的消息过快,单个消费者的消费处理速度不能满足业务,我们就可以考虑使用消费组模式,来加快消息的处理。

    多个消费者配合协作来消费同一个消息队列,比如消息队列中有10条消息,三个消费者分别消费其中的某些消息,比如消费者A消费消息1、2、5、8,消费者B消费消息4、9、10,而消费者C消费消息3、6、7。

    文字对应的消费组模型-不是我画的

    如果觉得上图有一些乱,可以看下边的结构图,来加深理解。

    消费组结构图-不是我画的

    消费者组模式的支持主要由两个命令实现:

    1. XGROUP,用于管理消费者组,提供创建组,销毁组,更新组起始消息ID等操作
    2. XREADGROUP,分组消费消息操作

    消费组演示:

    1. 创建消费组
    XGROUP create lianbianKey lianbianGroup 0
    
    1. 创建消息

    创建消息

    1. 消费组模式消费消息
    XREADGROUP group lianbianGroup consumerA count 1 streams lianbianKey >

     

    消费组模式第一条消息

    注意对比和压入时候的消息ID;

    依次分配给consumerB、consumerC来消费:

    依次消费

    可以进行组内消费的基本原理是,STREAM类型会为每个组记录一个最后处理(交付)的消息ID(last_delivered_id),这样在组内消费时,就可以从这个值后面开始读取,保证不重复消费。

    讲完了独立消费、消费组消费,接下来继续讲消费确认

    ACK(消息确认)

    在消费消息之后,我们是要给消息队列一个反馈,Redis Stream是用的xack来完成这部分工作的。

    消费确认示意简图

    前面我们消费了几条消息,但是我们并没有消费确认,我们借助xpending命令来查看下:

     

    未确认消息统计

    表示有哪些消息没有确认,我们来操作下消息确认

     

    xack消费确认

    在我们操作了ack命令之后,挂载在consumerA的数量减少了1(回顾最开始的那个体系图,挂载在消费组图中的pending_ids[]吗?就是记录的这个)。

    基本操作讲完了,我们稍微总结一下。

    xadd命令创建主题和消息,然后可以采取两种模式来消费消息,分别是独立消费消费组消费,在消费消息之后,我们要使用ack来确认消费,至此,一条消息才算被处理完毕。

     

    stream全局图-不是我画的

    现在再看这张图,是不是有很多东西已经理解了。

    上边讲的都是消息的正常情况,但是在我们的实际场景中,难免有一些异常情况,接下来,我继续给大家讲解Redis Stream是怎么应对那些实际场景中的异常情况的。

    PEL(等待列表)

    某个消费者,读取了某条消息之后进程就宕机了,这条消息可能会丢失,因为其他消费者不能再次消费到该消息了,这种情况下,Redis Stream是怎么样保证这条消息不丢失的呢?

    看到数据丢失,我们第一个想到的应该是要想到备份。对,就是备份。

    在消息读取的时候,同时会在pending列表中存入一个消息ID,当客户端重新连上之后,可以再次收到PEL中的消息ID列表。这也是我们xpending命令的基本底层原理。

    xpending命令

    PEL详情

    xpending命令有4个属性:

    1. 消息ID
    2. 所属消费者
    3. IDLE,已读取时长
    4. 消息被读取次数

    有了这样一个Pending机制,就意味着在某个消费者读取消息但未处理后,消息是不会丢失的。

    此时还有一个问题,就是若某个消费者宕机之后,没有办法再上线了,那么就需要将该消费者Pending的消息,转移给其他的消费者处理,就是消息转移。

    消息转移

    消息转移的操作时将某个消息转移到自己的Pending列表中。使用语法XCLAIM来实现,需要设置组、转移的目标消费者和消息ID,同时需要提供IDLE(已被读取时长),只有超过这个时长,才能被转移。演示如下:

    待转移的消息

    XCLAIM lianbianKey lianbianGroup consumerB 3600000 1649166116013-0

     

    转移结果

    以上代码,完成了一次消息转移。转移除了要指定ID外,还需要指定IDLE,保证是长时间未处理的才被转移。被转移的消息的IDLE会被重置,用以保证不会被重复转移,以为可能会出现将过期的消息同时转移给多个消费者的并发操作,设置了IDLE,则可以避免后面的转移不会成功,因为IDLE不满足条件。例如下面的连续两条转移,第二条不会成功。

    重复转移

    上边的命令因为时间没到,重复转移失败,还是归属于消费者B。

    这就是消息转移。至此我们使用了一个Pending消息的ID,所属消费者和IDLE的属性,还有一个属性就是消息被读取次数,该属性的作用由于统计消息被读取的次数,包括被转移也算。这个属性主要用在判定是否为错误数据上。

    坏消息问题,Dead Letter,死信问题

    正如上面所说,如果某个消息,不能被消费者处理,也就是不能被XACK,这是要长时间处于Pending列表中,即使被反复的转移给各个消费者也是如此。此时该消息的被读取次数就会累加(上一节的例子可以看到),当累加到某个我们预设的临界值时,我们就认为是坏消息(也叫死信,DeadLetter,无法投递的消息),由于有了判定条件,我们将坏消息处理掉即可,删除即可。删除一个消息,使用XDEL语法。(这里是说被读取次数是我们在做业务的时候判断是否需要删除的依据,而xdel就是stream的一个普通的命令,删除队列中的某个消息。)

    xdel

    在pending中还存在

    是普通命令,就记得xack

    xack后,PEL中无数据

    至此,Redis Stream的直观体验告一段落,大家是否熟悉了呢?

    赶紧实践一番吧。

    SpringBoot案例实战

    在实际编码之前, 我们稍微整理下思路。

    首先我们需要有生产者和消费者两个角色。生产者不断产生消息,消费者不断处理消息。

    生产者我们直接用命令行替代,编码实现实时消费的模块。

    最后达到的效果就是,命令行往指定的Key插入消息,在代码的命令行输出能看到消费的消息。

    引入依赖

    1. <dependency>
    2. <groupId>org.springframework.boot</groupId>
    3. <artifactId>spring-boot-starter-data-redis</artifactId>
    4. <version>2.5.6</version>
    5. </dependency>

    创建监听

    监听需要继承StreamListener类,重写onMessage方法

    1. @Component
    2. public class RedisStreamConsumerListener implements StreamListener<String, MapRecord<String ,String, String>> {
    3. static final Logger logger = LoggerFactory.getLogger(RedisStreamConsumerListener.class);
    4. @Override
    5. public void onMessage(MapRecord<String, String, String> message) {
    6. logger.info("message:: id={}, body={}", message.getId(), message.getValue());
    7. }
    8. }

    注册Bean

    1. @Bean
    2. public StreamMessageListenerContainer streamMessageListenerContainer() {
    3. AtomicInteger index = new AtomicInteger(1);
    4. int processors = Runtime.getRuntime().availableProcessors();
    5. ThreadPoolExecutor executor = new ThreadPoolExecutor(processors, processors, 0, TimeUnit.SECONDS, new LinkedBlockingDeque<>(), r -> {
    6. Thread thread = new Thread(r);
    7. thread.setName("async-stream-comsumer-" + index.getAndDecrement());
    8. thread.setDaemon(true);
    9. return thread;
    10. });
    11. StreamMessageListenerContainer.StreamMessageListenerContainerOptions streamMessageListenerContainerOptions = StreamMessageListenerContainer.StreamMessageListenerContainerOptions.builder().batchSize(10).executor(executor).errorHandler(new ErrorHandler() {
    12. @Override
    13. public void handleError(Throwable t) {
    14. t.printStackTrace();
    15. }
    16. }).pollTimeout(Duration.ZERO).serializer(new StringRedisSerializer()).build();
    17. StreamMessageListenerContainer streamMessageListenerContainer = StreamMessageListenerContainer.create(redisConnectionFactory, streamMessageListenerContainerOptions);
    18. streamMessageListenerContainer.receive(Consumer.from("lianbianGroup", "consumer-a"), StreamOffset.create("lianbianKey", ReadOffset.lastConsumed()), streamListener);
    19. streamMessageListenerContainer.start();
    20. return streamMessageListenerContainer;
    21. }

    启动看效果

    命令行生产者 控制台输出结果

  • 相关阅读:
    图文详解 HDFS 的工作机制及其原理
    【愚公系列】2022年11月 .NET CORE工具案例-.NET Core执行JavaScript
    RabbitMQ 链接管理-发布者-消费者
    kubernetes Pod详解
    [ESP32]:TFLite Micro推理CIFAR10模型
    局部线性嵌入(Locally Linear Embedding, LLE)
    C++高效集合数据结构设计
    uniapp使用uQRCode绘制二维码,下载到本地,调起微信扫一扫二维码核销
    两个shell实用函数:icd和mgrep
    盛元广通开放实训室管理系统2.0
  • 原文地址:https://blog.csdn.net/lt_xiaodou/article/details/126525965