• Kafka3.0.0版本——消费者(自动提交 offset)


    一、自动提交offset的相关参数

    • 官网文档
      在这里插入图片描述

    • 参数解释

      参数描述
      enable.auto.commi默认值为 true,消费者会自动周期性地向服务器提交偏移量。
      auto.commit.interval.ms如果设置了 enable.auto.commit 的值为 true, 则该值定义了消费者偏移量向 Kafka 提交的频率,默认 5s。
    • 图解分析

      在这里插入图片描述

    二、消费者(自动提交 offset)代码示例

    • 消费者自动提交 offset代码

      // 自动提交
      properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,true);
      // 提交时间间隔 1秒
      properties.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,1000);
      
      • 1
      • 2
      • 3
      • 4
    • 消费者自动提交 offset代码完整代码

      package com.xz.kafka.consumer;
      
      import org.apache.kafka.clients.consumer.ConsumerConfig;
      import org.apache.kafka.clients.consumer.ConsumerRecord;
      import org.apache.kafka.clients.consumer.ConsumerRecords;
      import org.apache.kafka.clients.consumer.KafkaConsumer;
      import org.apache.kafka.common.serialization.StringDeserializer;
      
      import java.time.Duration;
      import java.util.ArrayList;
      import java.util.Properties;
      
      public class CustomConsumerAutoOffset {
      
          public static void main(String[] args) {
      
              // 配置
              Properties properties = new Properties();
      
              // 连接 bootstrap.servers
              properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"192.168.136.27:9092,192.168.136.28:9092,192.168.136.29:9092");
      
              // 反序列化
              properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
              properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
      
              // 配置消费者组id
              properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test3");
      
              // 自动提交
              properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,true);
      
              // 提交时间间隔 1秒
              properties.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,1000);
      
              // 1 创建一个消费者  "", "hello"
              KafkaConsumer<String, String> kafkaConsumer = new KafkaConsumer<>(properties);
      
              // 2 订阅主题 first
              ArrayList<String> topics = new ArrayList<>();
              topics.add("sevenTopic");
              kafkaConsumer.subscribe(topics);
      
              // 3 消费数据
              while (true){
      
                  ConsumerRecords<String, String> consumerRecords = kafkaConsumer.poll(Duration.ofSeconds(1));
      
                  for (ConsumerRecord<String, String> consumerRecord : consumerRecords) {
                      System.out.println(consumerRecord);
                  }
              }
          }
      }
      
      • 1
      • 2
      • 3
      • 4
      • 5
      • 6
      • 7
      • 8
      • 9
      • 10
      • 11
      • 12
      • 13
      • 14
      • 15
      • 16
      • 17
      • 18
      • 19
      • 20
      • 21
      • 22
      • 23
      • 24
      • 25
      • 26
      • 27
      • 28
      • 29
      • 30
      • 31
      • 32
      • 33
      • 34
      • 35
      • 36
      • 37
      • 38
      • 39
      • 40
      • 41
      • 42
      • 43
      • 44
      • 45
      • 46
      • 47
      • 48
      • 49
      • 50
      • 51
      • 52
      • 53
      • 54
  • 相关阅读:
    解决 Ajax:Ensure CORS response header values are valid 跨域问题
    2022-11-05 mysql-派生表-解读
    金字塔原理
    香蕉派BPI-Wifi6迷你路由器公开发售
    PostMan动态设置全局变量
    【毕业季】致毕业生的一句话:天高任鸟飞,海阔凭鱼跃
    【Linux-达梦】A1.数据库部署
    springboot系列(十四):如何实现发送图片、doc文档等附件邮件?你一定得会|超级详细,建议收藏
    产品经理如何做数据分析
    源码学习之Spring容器创建原理
  • 原文地址:https://blog.csdn.net/li1325169021/article/details/132794902