• Kafka高级特性解析之生产者


    1、消息发送

    1.1、数据生产流程解析

    1. Producer创建时,会创建一个Sender线程并设置为守护线程。
    2. 生产消息时,内部其实是异步流程;生产的消息先经过拦截器->序列化器->分区器,然后将消息缓存在缓冲区(该缓冲区也是在Producer创建时创建)。
    3. 批次发送的条件为:缓冲区数据大小达到batch.size或者linger.ms达到上限,哪个先达到就算哪个。
    4. 批次发送后,发往指定分区,然后落盘到broker;如果生产者配置了retrires参数大于0并且失败原因允许重试,那么客户端内部会对该消息进行重试。
    5. 落盘到broker成功,返回生产元数据给生产者。
    6. 元数据返回有两种方式:一种是通过阻塞直接返回,另一种是通过回调返回。 

    1.2、必要参数配置

    broker配置

    (1)配置条目的使用方式:

    (2) 配置参数:

    属性说明重要性
    bootstrap.servers生产者客户端与broker集群建立初始连接需要的broker地址列表,由该初始连接发现Kafka集群中其他的所有broker。该地址列表不需要写全部的Kafka集群中broker的地址,但也不要写一个,以防该节点宕机的时候不可用。形式为: host1:port1,host2:port2,... .high
    key.serializer实现了接口org.apache.kafka.common.serialization.Serializer 的key序化类。high
    value.serializer实现了接口org.apache.kafka.common.serialization.Serializer 的value序列化类。high
    acks该选项控制着已发送消息的持久性。
    acks=0 :生产者不等待broker的任何消息确认。只要将消息放到了socket的缓冲区,就认为消息已发送。不能保证服务器是否收到该消息, retries 设置也不起作用,因为客户端不关心消息是否发送失败。客户端收到的消息偏移量永远是-1。
    acks=1 :leader将记录写到它本地日志,就响应客户端确认消息,而不等待follower副本的确认。如果leader确认了消息就宕机,则可能会丢失消息,因为follower副本可能还没来得及同步该消息。
    acks=all :leader等待所有同步的副本确认该消息。保证了只要有一个同步副本存在,消息就不会丢失。这是最强的可用性保证。等价于acks=-1 。默认值为1,字符串。可选值:[all, -1, 0, 1]
    high
    compression.type生产者生成数据的压缩格式。默认是none(没有压缩)。允许的值: none , gzip , snappy 和lz4 。压缩是对整个消息批次来讲的。消息批的效率也影响压缩的比例。消息批越大,压缩效率越好。字符串类型的值。默认是none。high
    retries设置该属性为一个大于1的值,将在消息发送失败的时候重新发送消息。该重试与客户端收到异常重新发送并无二至。允许重试但是不设置max.in.flight.requests.per.connection 为1,存在消息乱序的可能,因为如果两个批次发送到同一个分区,第一个失败了重试,第二个成功了,则第一个消息批在第二个消息批后。int类型的值,默认:0,可选值:[0,...,2147483647]high

    1.3、序列化器

    • 由于Kafka中的数据都是字节数组,在将消息发送到Kafka之前需要先将数据序列化为字节数组。
    • 序列化器的作用就是用于序列化要发送的消息的。 
    • Kafka使用org.apache.kafka.common.serialization.Serializer 接口用于定义序列化器,将泛型指定类型的数据转换为字节数组。
    1. package org.apache.kafka.common.serialization;
    2. import java.io.Closeable;
    3. import java.util.Map;
    4. /**
    5. * 将对象转换为byte数组的接口
    6. *

    7. * 该接口的实现类需要提供无参构造器
    8. *
    9. * @param 从哪个类型转换
    10. */
    11. public interface Serializer extends Closeable {
    12. /**
    13. * 类的配置信息
    14. *
    15. * @param configs key/value pairs
    16. * @param isKey key的序列化还是value的序列化
    17. */
    18. void configure(Map configs, boolean isKey);
    19. /**
    20. * 将对象转换为字节数组
    21. *
    22. * @param topic 主题名称
    23. * @param data 需要转换的对象
    24. * @return 序列化的字节数组
    25. */
    26. byte[] serialize(String topic, T data);
    27. /**
    28. * 关闭序列化器
    29. * 该方法需要提供幂等性,因为可能调用多次。
    30. */
    31. @Override
    32. void close();
    33. }

    系统提供了该接口的子接口以及实现类:org.apache.kafka.common.serialization.ByteArraySerializer

    org.apache.kafka.common.serialization.ByteBufferSerializer 

    org.apache.kafka.common.serialization.BytesSerializer 

    org.apache.kafka.common.serialization.DoubleSerializer 

    org.apache.kafka.common.serialization.FloatSerializer 

    org.apache.kafka.common.serialization.IntegerSerializer 

    org.apache.kafka.common.serialization.StringSerializer 

    org.apache.kafka.common.serialization.LongSerializer 

    org.apache.kafka.common.serialization.ShortSerializer 

    自定义序列化器 

    数据的序列化一般生产中使用avro

            自定义序列化器需要实现org.apache.kafka.common.serialization.Serializer接口,并实现其中的serialize 方法。

    案例:

    (1)实体类

    1. package com.lagou.kafka.demo.entity;
    2. /**
    3. * 用户自定义的封装消息的实体类
    4. */
    5. public class User {
    6. private Integer userId;
    7. private String username;
    8. public Integer getUserId() {
    9. return userId;
    10. }
    11. public void setUserId(Integer userId) {
    12. this.userId = userId;
    13. }
    14. public String getUsername() {
    15. return username;
    16. }
    17. public void setUsername(String username) {
    18. this.username = username;
    19. }
    20. }

    (2)序列化类:

    1. package com.lagou.kafka.demo.serialization;
    2. import com.lagou.kafka.demo.entity.User;
    3. import org.apache.kafka.common.errors.SerializationException;
    4. import org.apache.kafka.common.serialization.Serializer;
    5. import java.io.UnsupportedEncodingException;
    6. import java.nio.ByteBuffer;
    7. import java.util.Map;
    8. public class UserSerializer implements Serializer {
    9. @Override
    10. public void configure(Map configs, boolean isKey) {
    11. // do nothing
    12. // 用于接收对序列化器的配置参数,并对当前序列化器进行配置和初始化的
    13. }
    14. @Override
    15. public byte[] serialize(String topic, User data) {
    16. try {
    17. if (data == null) {
    18. return null;
    19. } else {
    20. final Integer userId = data.getUserId();
    21. final String username = data.getUsername();
    22. if (userId != null) {
    23. if (username != null) {
    24. final byte[] bytes = username.getBytes("UTF-8");
    25. int length = bytes.length;
    26. // 第一个4个字节用于存储userId的值
    27. // 第二个4个字节用于存储username字节数组的长度int值
    28. // 第三个长度,用于存放username序列化之后的字节数组
    29. ByteBuffer buffer = ByteBuffer.allocate(4 + 4 + length);
    30. // 设置userId
    31. buffer.putInt(userId);
    32. // 设置username字节数组长度
    33. buffer.putInt(length);
    34. // 设置username字节数组
    35. buffer.put(bytes);
    36. // 以字节数组形式返回user对象的值
    37. return buffer.array();
    38. }
    39. }
    40. }
    41. } catch (Exception e) {
    42. throw new SerializationException("数据序列化失败");
    43. }
    44. return null;
    45. }
    46. @Override
    47. public void close() {
    48. // do nothing
    49. // 用于关闭资源等操作。需要幂等,即多次调用,效果是一样的。
    50. }
    51. }

    (3)生产者:

    1. package com.lagou.kafka.demo.producer;
    2. import com.lagou.kafka.demo.entity.User;
    3. import com.lagou.kafka.demo.serialization.UserSerializer;
    4. import org.apache.kafka.clients.producer.*;
    5. import org.apache.kafka.common.serialization.StringSerializer;
    6. import java.util.HashMap;
    7. import java.util.Map;
    8. public class MyProducer {
    9. public static void main(String[] args) {
    10. Map configs = new HashMap<>();
    11. configs.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "node1:9092");
    12. configs.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
    13. // 设置自定义的序列化器
    14. configs.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, UserSerializer.class);
    15. KafkaProducer producer = new KafkaProducer(configs);
    16. User user = new User();
    17. // user.setUserId(1001);
    18. // user.setUsername("张三");
    19. // user.setUsername("李四");
    20. // user.setUsername("王五");
    21. user.setUserId(400);
    22. user.setUsername("赵四");
    23. ProducerRecord record = new ProducerRecord(
    24. "tp_user_01", // topic
    25. user.getUsername(), // key
    26. user // value
    27. );
    28. producer.send(record, new Callback() {
    29. @Override
    30. public void onCompletion(RecordMetadata metadata, Exception exception) {
    31. if (exception != null) {
    32. System.out.println("消息发送异常");
    33. } else {
    34. System.out.println("主题:" + metadata.topic() + "\t"
    35. + "分区:" + metadata.partition() + "\t"
    36. + "生产者偏移量:" + metadata.offset());
    37. }
    38. }
    39. });
    40. // 关闭生产者
    41. producer.close();
    42. }
    43. }

    1.4、分区器

    默认(DefaultPartitioner)分区计算: 

    • 如果record提供了分区号,则使用record提供的分区号
    • 如果record没有提供分区号,则使用key的序列化后的值的hash值对分区数量取模
    • 如果record没有提供分区号,也没有提供key,则使用轮询的方式分配分区号。
      • 会首先在可用的分区中分配分区号
      • 如果没有可用的分区,则在该主题所有分区中分配分区号。

    如果要自定义分区器,则需要 

    1. 首先开发Partitioner接口的实现类
    2. 在KafkaProducer中进行设置:configs.put("partitioner.class", "xxx.xx.Xxx.class") 

    位于org.apache.kafka.clients.producer 中的分区器接口:

    1. package org.apache.kafka.clients.producer;
    2. import org.apache.kafka.common.Configurable;
    3. import org.apache.kafka.common.Cluster;
    4. import java.io.Closeable;
    5. /**
    6. * 分区器接口
    7. */
    8. public interface Partitioner extends Configurable, Closeable {
    9. /**
    10. * 为指定的消息记录计算分区值
    11. *
    12. * @param topic 主题名称
    13. * @param key 根据该key的值进行分区计算,如果没有则为null。
    14. * @param keyBytes key的序列化字节数组,根据该数组进行分区计算。如果没有key,则为
    15. * null
    16. * @param value 根据value值进行分区计算,如果没有,则为null
    17. * @param valueBytes value的序列化字节数组,根据此值进行分区计算。如果没有,则为
    18. * null
    19. * @param cluster 当前集群的元数据
    20. */
    21. public int partition(String topic, Object key, byte[] keyBytes, Object
    22. value, byte[] valueBytes, Cluster cluster);
    23. /**
    24. * 关闭分区器的时候调用该方法
    25. */
    26. public void close();
    27. }

    org.apache.kafka.clients.producer.internals 中分区器的默认实现:

    1. package org.apache.kafka.clients.producer.internals;
    2. import java.util.List;
    3. import java.util.Map;
    4. import java.util.concurrent.ConcurrentHashMap;
    5. import java.util.concurrent.ConcurrentMap;
    6. import java.util.concurrent.ThreadLocalRandom;
    7. import java.util.concurrent.atomic.AtomicInteger;
    8. import org.apache.kafka.clients.producer.Partitioner;
    9. import org.apache.kafka.common.Cluster;
    10. import org.apache.kafka.common.PartitionInfo;
    11. import org.apache.kafka.common.utils.Utils;
    12. /**
    13. * 默认的分区策略:
    14. *

    15. * 如果在记录中指定了分区,则使用指定的分区
    16. * 如果没有指定分区,但是有key的值,则使用key值的散列值计算分区
    17. * 如果没有指定分区也没有key的值,则使用轮询的方式选择一个分区
    18. */
    19. public class DefaultPartitioner implements Partitioner {
    20. private final ConcurrentMap topicCounterMap = new ConcurrentHashMap<>();
    21. public void configure(Map configs) {
    22. }
    23. /**
    24. * 为指定的消息记录计算分区值
    25. *
    26. * @param topic 主题名称
    27. * @param key 根据该key的值进行分区计算,如果没有则为null。
    28. * @param keyBytes key的序列化字节数组,根据该数组进行分区计算。如果没有key,则为
    29. * null
    30. * @param value 根据value值进行分区计算,如果没有,则为null
    31. * @param valueBytes value的序列化字节数组,根据此值进行分区计算。如果没有,则为
    32. * null
    33. * @param cluster 当前集群的元数据
    34. */
    35. public int partition(String topic, Object key, byte[] keyBytes, Object
    36. value, byte[] valueBytes, Cluster cluster) {
    37. // 获取指定主题的所有分区信息
    38. List partitions = cluster.partitionsForTopic(topic);
    39. // 分区的数量
    40. int numPartitions = partitions.size();
    41. // 如果没有提供key
    42. if (keyBytes == null) {
    43. int nextValue = nextValue(topic);
    44. List availablePartitions = cluster.availablePartitionsForTopic(topic);
    45. if (availablePartitions.size() > 0) {
    46. int part = Utils.toPositive(nextValue) % availablePartitions.size();
    47. return availablePartitions.get(part).partition();
    48. } else {
    49. // no partitions are available, give a non-available partition
    50. return Utils.toPositive(nextValue) % numPartitions;
    51. }
    52. } else {
    53. // hash the keyBytes to choose a partition
    54. // 如果有,就计算keyBytes的哈希值,然后对当前主题的个数取模
    55. return Utils.toPositive(Utils.murmur2(keyBytes)) % numPartitions;
    56. }
    57. }
    58. private int nextValue(String topic) {
    59. AtomicInteger counter = topicCounterMap.get(topic);
    60. if (null == counter) {
    61. counter = new AtomicInteger(ThreadLocalRandom.current().nextInt());
    62. AtomicInteger currentCounter = topicCounterMap.putIfAbsent(topic, counter);
    63. if (currentCounter != null) {
    64. counter = currentCounter;
    65. }
    66. }
    67. return counter.getAndIncrement();
    68. }
    69. public void close() {
    70. }
    71. }

    可以实现Partitioner接口自定义分区器: 

    然后在生产者中配置: 

    1.5、拦截器 

            Producer拦截器(interceptor)和Consumer端Interceptor是在Kafka 0.10版本被引入的,主要用于实现Client端的定制化控制逻辑。 

            对于Producer而言,Interceptor使得用户在消息发送前以及Producer回调逻辑前有机会对消息做一些定制化需求,比如修改消息等。同时,Producer允许用户指定多个Interceptor按序作用于同一条消息从而形成一个拦截链(interceptor chain)。Intercetpor的实现接口是org.apache.kafka.clients.producer.ProducerInterceptor,其定义的方法包括:

    • onSend(ProducerRecord):该方法封装进KafkaProducer.send方法中,即运行在用户主线程中。Producer确保在消息被序列化以计算分区前调用该方法。用户可以在该方法中对消息做任何操作,但最好保证不要修改消息所属的topic和分区,否则会影响目标分区的计算。
    • onAcknowledgement(RecordMetadata, Exception):该方法会在消息被应答之前或消息发送失败时调用,并且通常都是在Producer回调逻辑触发之前。onAcknowledgement运行在Producer的IO线程中,因此不要在该方法中放入很重的逻辑,否则会拖慢Producer的消息发送效率。
    • close:关闭Interceptor,主要用于执行一些资源清理工作。

            如前所述,Interceptor可能被运行在多个线程中,因此在具体实现时用户需要自行确保线程安全。另外倘若指定了多个Interceptor,则Producer将按照指定顺序调用它们,并仅仅是捕获每个Interceptor可能抛出的异常记录到错误日志中而非在向上传递。这在使用过程中要特别留意。

    自定义拦截器:

    1. 实现ProducerInterceptor接口
    2. 在KafkaProducer的设置中设置自定义的拦截器

    案例:

    (1)设置拦截器类:

    1. package com.lagou.kafka.demo.interceptor;
    2. import org.apache.kafka.clients.producer.ProducerInterceptor;
    3. import org.apache.kafka.clients.producer.ProducerRecord;
    4. import org.apache.kafka.clients.producer.RecordMetadata;
    5. import org.apache.kafka.common.header.Headers;
    6. import org.slf4j.Logger;
    7. import org.slf4j.LoggerFactory;
    8. import java.util.Map;
    9. public class InterceptorOne implements ProducerInterceptor {
    10. private static final Logger LOGGER = LoggerFactory.getLogger(InterceptorOne.class);
    11. @Override
    12. public ProducerRecord onSend(ProducerRecord record) {
    13. System.out.println("拦截器1 -- go");
    14. // 消息发送的时候,经过拦截器,调用该方法
    15. // 要发送的消息内容
    16. final String topic = record.topic();
    17. final Integer partition = record.partition();
    18. final Integer key = record.key();
    19. final String value = record.value();
    20. final Long timestamp = record.timestamp();
    21. final Headers headers = record.headers();
    22. // 拦截器拦下来之后根据原来消息创建的新的消息
    23. // 此处对原消息没有做任何改动
    24. ProducerRecord newRecord = new ProducerRecord(
    25. topic,
    26. partition,
    27. timestamp,
    28. key,
    29. value,
    30. headers
    31. );
    32. // 传递新的消息
    33. return newRecord;
    34. }
    35. @Override
    36. public void onAcknowledgement(RecordMetadata metadata, Exception exception) {
    37. System.out.println("拦截器1 -- back");
    38. // 消息确认或异常的时候,调用该方法,该方法中不应实现较重的任务
    39. // 会影响kafka生产者的性能。
    40. }
    41. @Override
    42. public void close() {
    43. }
    44. @Override
    45. public void configure(Map configs) {
    46. final Object classContent = configs.get("classContent");
    47. System.out.println(classContent);
    48. }
    49. }

    (2)生产者

    1. package com.lagou.kafka.demo.producer;
    2. import org.apache.kafka.clients.producer.*;
    3. import org.apache.kafka.common.serialization.IntegerSerializer;
    4. import org.apache.kafka.common.serialization.StringSerializer;
    5. import java.util.HashMap;
    6. import java.util.Map;
    7. public class MyProducer {
    8. public static void main(String[] args) {
    9. Map configs = new HashMap<>();
    10. configs.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "node1:9092");
    11. configs.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, IntegerSerializer.class);
    12. configs.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
    13. // 保证等待确认的消息只有设置的这几个。如果设置为1,则只有一个请求在等待响应
    14. // 此时可以保证发送消息即使在重试的情况下也是有序的。
    15. configs.put(ProducerConfig.MAX_IN_FLIGHT_REQUESTS_PER_CONNECTION, 1);
    16. // configs.put("max.in.flight.requests.per.connection", 1);
    17. // interceptor.classes
    18. // 如果有多个拦截器,则设置为多个拦截器类的全限定类名,中间用逗号隔开
    19. /* configs.put(ProducerConfig.INTERCEPTOR_CLASSES_CONFIG, "com.lagou.kafka.demo.interceptor.InterceptorOne," +
    20. "com.lagou.kafka.demo.interceptor.InterceptorTwo," +
    21. "com.lagou.kafka.demo.interceptor.InterceptorThree"); */
    22. configs.put(ProducerConfig.INTERCEPTOR_CLASSES_CONFIG, "com.lagou.kafka.demo.interceptor.InterceptorOne");
    23. configs.put("classContent", "this is lagou's kafka class");
    24. KafkaProducer producer = new KafkaProducer(configs);
    25. ProducerRecord record = new ProducerRecord(
    26. "tp_inter_01",
    27. 0,
    28. 1001,
    29. "this is lagou's 1001 message"
    30. );
    31. producer.send(record, new Callback() {
    32. @Override
    33. public void onCompletion(RecordMetadata metadata, Exception exception) {
    34. if (exception == null) {
    35. System.out.println(metadata.offset());
    36. }
    37. }
    38. });
    39. // 关闭生产者
    40. producer.close();
    41. }
    42. }

    2、原理剖析

    由上图可以看出:KafkaProducer有两个基本线程: 

    • 主线程:负责消息创建,拦截器,序列化器,分区器等操作,并将消息追加到消息收集器RecoderAccumulator中;
      • 消息收集器RecoderAccumulator为每个分区都维护了一个Deque 类型的双端队列。
      • ProducerBatch 可以理解为是 ProducerRecord 的集合,批量发送有利于提升吞吐量,降低网络影响;
      • 由于生产者客户端使用 java.io.ByteBuffer 在发送消息之前进行消息保存,并维护了一个 BufferPool 实现 ByteBuffer 的复用;该缓存池只针对特定大小( batch.size指定)的 ByteBuffer进行管理,对于消息过大的缓存,不能做到重复利用。
      • 每次追加一条ProducerRecord消息,会寻找/新建对应的双端队列,从其尾部获取一个ProducerBatch,判断当前消息的大小是否可以写入该批次中。若可以写入则写入;若不可以写入,则新建一个ProducerBatch,判断该消息大小是否超过客户端参数配置 batch.size 的值,不超过,则以 batch.size建立新的ProducerBatch,这样方便进行缓存重复利用;若超过,则以计算的消息大小建立对应的 ProducerBatch ,缺点就是该内存不能被复用了。
    • Sender线程:
      • 该线程从消息收集器获取缓存的消息,将其处理为 的式, Node 表示集群的broker节点。
      • 进一步将转化为形式,此时才可以向服务端发送数据。
      • 在发送之前,Sender线程将消息以 Map> 的形式保存到InFlightRequests 中进行缓存,可以通过其获取 leastLoadedNode ,即当前Node中负载压力最小的一个,以实现消息的尽快发出。

    3、生产者参数配置补充

    (1)参数设置方式:

    (2) 补充参数:

     

    参数名称描述
    retry.backoff.ms在向一个指定的主题分区重发消息的时候,重试之间的等待时间。
    • 比如3次重试,每次重试之后等待该时间长度,再接着重试。在一些失败的场景,避免了密集循环的重新发送请求。
    • long型值,默认100。可选值:[0,...]
    retriesretries重试次数
    • 当消息发送出现错误的时候,系统会重发消息。跟客户端收到错误时重发一样。
    • 如果设置了重试,还想保证消息的有序性,需要设置MAX_IN_FLIGHT_REQUESTS_PER_CONNECTION=1,否则在重试此失败消息的时候,其他的消息可能发送成功了
    request.timeout.ms

    客户端等待请求响应的最大时长。

            如果服务端响应超时,则会重发请求,除非达到重试次数。该设置应该比replica.lag.time.max.ms (a broker configuration)要大,以免在服务器延迟时间内重发消息。int类型值,默认:30000,可选值:[0,...]

    interceptor.classes

    在生产者接收到该消息,向Kafka集群传输之前,由序列化器处理之前,可以通过拦截器对消息进行处理。

    • 要求拦截器类必须实现org.apache.kafka.clients.producer.ProducerInterceptor 接口。
    • 默认没有拦截器。Map configs中通过List集合配置多个拦截器类名。
    acks

    当生产者发送消息之后,如何确认消息已经发送成功了。

    支持的值:

    acks=0:

    • 如果设置为0,表示生产者不会等待broker对消息的确认,只要将消息放到缓冲区,就认为消息已经发送完成。
    • 该情形不能保证broker是否真的收到了消息,retries配置也不会生效,因为客户端不需要知道消息是否发送成功。
    • 发送的消息的返回的消息偏移量永远是-1。

    acks=1

    • 表示消息只需要写到主分区即可,然后就响应客户端,而不等待副本分区的确认。
    • 在该情形下,如果主分区收到消息确认之后就宕机了,而副本分区还没来得及步该消息,则该消息丢失。

    acks=all

    • 首领分区会等待所有的ISR副本分区确认记录。
    • 该处理保证了只要有一个ISR副本分区存货,消息就不会丢失。
    • 这是Kafka最强的可靠性保证,等效于acks=-1 。
    batch.size当多个消息发送到同一个分区的时候,生产者尝试将多个记录作为一个批来处理。批处理提高了客户端和服务器的处理效率。
    • 该配置项以字节为单位控制默认批的大小。
    • 所有的批小于等于该值。
    • 发送给broker的请求将包含多个批次,每个分区一个,并包含可发送的数据。
    • 如果该值设置的比较小,会限制吞吐量(设置为0会完全禁用批处理)。如果设置的很大,又有一点浪费内存,因为Kafka会永远分配这么大的内存来参与到消息的批整合中。
    client.id生产者发送请求的时候传递给broker的id字符串。
    • 用于在broker的请求日志中追踪什么应用发送了什么消息。
    • 一般该id是跟业务有关的字符串。
    compression.type

    生产者发送的所有数据的压缩方式。默认是none,也就是不压缩。

    • 支持的值:none、gzip、snappy和lz4。
    • 压缩是对于整个批来讲的,所以批处理的效率也会影响到压缩的比例。
    send.buffer.bytesTCP发送数据的时候使用的缓冲区(SO_SNDBUF)大小。如果设置为0,则使
    用操作系统默认的。
    buffer.memory

    生产者可以用来缓存等待发送到服务器的记录的总内存字节。

            如果记录的发送速度超过了将记录发送到服务器的速度,则生产者将阻塞max.block.ms 的时间,此后它将引发异常。此设置应大致对应于生产者将使用的总内存,但并非生产者使用的所有内存都用于缓冲。一些额外的内存将用于压缩(如果启用了压缩)以及维护运行中的请求。long型数据。默认值:33554432,可选值:[0,...]

    connections.max.idle.ms当连接空闲时间达到这个值,就关闭连接。long型数据,默认:540000
    linger.ms

    生产者在发送请求传输间隔会对需要发送的消息进行累积,然后作为一个批次
    发送。

            一般情况是消息的发送的速度比消息累积的速度慢。有时客户端需要减少请求的次数,即使是在发送负载不大的情况下。该配置设置了一个延迟,生产者不会立即将消息发送到broker,而是等待这么一段时间以累积消息,然后将这段时间之内的消息作为一个批次发送。该设置是批处理的另一个上限:一旦批消息达到了batch.size 指定的值,消息批会立即发送,如果积累的消息字节数达不到batch.size 的值,可以设置该毫秒值,等待这么长时间之后,也会发送消息批。该属性默认值是0(没有延迟)。如果设置linger.ms=5 ,则在一个请求发送之前先等待5ms。long型值,默认:0,可选值:[0,...]

    max.block.ms

    控制KafkaProducer.send() 和KafkaProducer.partitionsFor() 阻塞的时长。

            当缓存满了或元数据不可用的时候,这些方法阻塞。在用户提供的序列化器和分区器的阻塞时间不计入。long型值,默认:60000,可选值:[0,...]

    max.request.size

    单个请求的最大字节数。

            该设置会限制单个请求中消息批的消息个数,以免单个请求发送太多的数据。服务器有自己的限制批大小的设置,与该配置可能不一样。int类型值,默认1048576,可选值:[0,...]

    partitioner.class

    实现了接口org.apache.kafka.clients.producer.Partitioner 的分区器实现类。

    默认值为:org.apache.kafka.clients.producer.internals.DefaultPartitioner

    receive.buffer.bytesTCP接收缓存(SO_RCVBUF),如果设置为-1,则使用操作系统默认的值。
    int类型值,默认32768,可选值:[-1,...]
    security.protocol

    跟broker通信的协议:PLAINTEXT, SSL, SASL_PLAINTEXT, SASL_SSL.

    string类型值,默认:PLAINTEXT

    max.in.flight.requests.per.connection

    单个连接上未确认请求的最大数量。

    达到这个数量,客户端阻塞。如果该值大于1,且存在失败的请求,在重试的时候消息顺序不能保证。int类型值,默认5。可选值:[1,...]

    reconnect.backoff.max.ms对于每个连续的连接失败,每台主机的退避将成倍增加,直至达到此最大值。
    在计算退避增量之后,添加20%的随机抖动以避免连接风暴。long型值,默认1000,可选值:[0,...]
    reconnect.backoff.ms

    尝试重连指定主机的基础等待时间。

    • 避免了到该主机的密集重连。
    • 该退避时间应用于该客户端到broker的所有连接。
    • long型值,默认50。可选值:[0,...]
  • 相关阅读:
    上采样(upsample/upsacle)下采样(downsample/downscale)的作用
    javascript 数组方法 slice() 的使用说明
    MySQL 8.0:性能优化与新功能
    嵌入式开发为什么要跑操作系统?
    【SpringMVC】RESTful风格CRUD实现
    工程伦理--9.3 工程师的能力标准
    LeetCode高频题55加类似新题45:跳跃游戏 II:最少需要跳多少步才能抵达终点
    46.Java正则表达式
    pandasGUI:一款开源的功能异常强大的数据可视化分析工具
    【基于FreeRTOS的STM32F103系统】队列
  • 原文地址:https://blog.csdn.net/weixin_52851967/article/details/128184566