• kafka的commitFaildException异常处理


    目录

    前言

    异常注释

    异常发生的场景

    参考资料


    前言

    CommitFailedException,顾名思义就是 Consumer 客户端在提交位移时出现了错误或异常,而且还是那种不可恢复的严重异常。

    异常注释

     kafka针对CommitFailedException有对应的注释,注释的原版内容如下:

    Commit cannot be completed since the group has already rebalanced and assigned the partitions to another member. This means that the time between subsequent calls to poll() was longer than the configured max.poll.interval.ms, which typically implies that the poll loop is spending too much time message processing. You can address this either by increasing max.poll.interval.ms or by reducing the maximum size of batches returned in poll() with max.poll.records.

     这段话前半部分的意思是,本次提交位移失败了,原因是消费者组已经开启了 Rebalance 过程,并且将要提交位移的分区分配给了另一个消费者实例。出现这个情况的原因是,你的消费者实例连续两次调用 poll 方法的时间间隔超过了期望的 max.poll.interval.ms 参数值这通常表明,你的消费者实例花费了太长的时间进行消息处理,耽误了调用 poll 方法。

     在后半部分,社区给出了两个相应的解决办法(即橙色字部分):

    • 增加期望的时间间隔 max.poll.interval.ms 参数值。
    • 减少 poll 方法一次性返回的消息数量,即减少 max.poll.records 参数值。

    异常发生的场景

    异常发生的场景为:当消息处理的总时间超过预设的 max.poll.interval.ms 参数值时,Kafka Consumer 端会抛出 CommitFailedException 异常。这是该异常最“正宗”的登场方式。你只需要写一个 Consumer 程序,使用 KafkaConsumer.subscribe 方法随意订阅一个主题,之后设置 Consumer 端参数 max.poll.interval.ms=5 秒,最后在循环调用 KafkaConsumer.poll 方法之间,插入 Thread.sleep(6000) 和手动提交位移,就可以成功复现这个异常了。在这里,我展示一下主要的代码逻辑。

    1. Properties props = new Properties();
    2. props.put("max.poll.interval.ms", 5000);
    3. consumer.subscribe(Arrays.asList("test-topic"));
    4. while (true) {
    5. ConsumerRecords records =
    6. consumer.poll(Duration.ofSeconds(1));
    7. // 使用Thread.sleep模拟真实的消息处理逻辑
    8. Thread.sleep(6000L);
    9. consumer.commitSync();
    10. }

    针对上面的场景,有如下4种解决方案:

    1、缩短单条消息处理的时间。比如,之前下游系统消费一条消息的时间是 100 毫秒,优化之后成功地下降到 50 毫秒,那么此时 Consumer 端的 TPS 就提升了一倍。

    2、增加 Consumer 端允许下游系统消费一批消息的最大时长。这取决于 Consumer 端参数 max.poll.interval.ms 的值。在最新版的 Kafka 中,该参数的默认值是 5 分钟。如果你的消费逻辑不能简化,那么提高该参数值是一个不错的办法。

    3、减少下游系统一次性消费的消息总数。这取决于 Consumer 端参数 max.poll.records 的值。当前该参数的默认值是 500 条,表明调用一次 KafkaConsumer.poll 方法,最多返回 500 条消息。可以说,该参数规定了单次 poll 方法能够返回的消息总数的上限。如果前两种方法对你都不适用的话,降低此参数值是避免 CommitFailedException 异常最简单的手段。

    4、下游系统使用多线程来加速消费。这应该算是“最高级”同时也是最难实现的解决办法了。具体的思路就是,让下游系统手动创建多个消费线程处理 poll 方法返回的一批消息。之前你使用 Kafka Consumer 消费数据更多是单线程的,所以当消费速度无法匹及 Kafka Consumer 消息返回的速度时,它就会抛出 CommitFailedException 异常。如果是多线程,你就可以灵活地控制线程数量,随时调整消费承载能力,再配以目前多核的硬件条件,该方法可谓是防止 CommitFailedException 最高档的解决之道。事实上,很多主流的大数据流处理框架使用的都是这个方法,比如 Apache Flink 在集成 Kafka 时,就是创建了多个 KafkaConsumerThread 线程,自行处理多线程间的数据消费。不过,凡事有利就有弊,这个方法实现起来并不容易,特别是在多个线程间如何处理位移提交这个问题上,更是极容易出错。

    综合以上这 4 个处理方法,我个人推荐你首先尝试采用方法 1 来预防此异常的发生。优化下游系统的消费逻辑是百利而无一害的法子,不像方法 2、3 那样涉及到 Kafka Consumer 端 TPS 与消费延时(Latency)的权衡。如果方法 1 实现起来有难度,那么你可以按照下面的法则来实践方法 2、3。 

    参考资料

    19 | CommitFailedException异常怎么处理?-极客时间

  • 相关阅读:
    既然有了ES,为何还用ClickHouse——从原理万字总结ClickHouse为何这么快
    安装file-saver后导入时报错Could not find a declaration file for module ‘file-saver‘
    026利用GANs合成癫痫脑活动2019
    AIOPS:Zabbix结合讯飞星火做自动化告警+邮件通知并基于人工智能提供解决方案
    git冲突时拉取并覆盖本地代码
    Python之numpy
    下载生成af-only-gnomad.hg19.vcf.gz文件
    【Linux学习笔记2】-【Linux目录结构及具体介绍,vi和vim的介绍及快捷方式,】
    定期360评估系统优于年度绩效考核
    【文件操作】Java -操作File对象
  • 原文地址:https://blog.csdn.net/weixin_44399827/article/details/132824600