• Kafka 为什么那么快?


    有人说:他曾在一台配置较好的机子上对 Kafka 进行性能压测,压测结果是 Kafka 单个节点的极限处理能力接近每秒 2000万 条消息,吞吐量达到每秒 600MB

    Kafka 为什么这么快?如何做到这个高的性能?

    本篇文章主要从这 3 个角度来分析:

    • 生产端
    • 服务端 Broker
    • 消费端


     

    先来看下生产端发送消息,Kafka 做了哪些优化?

    (1)生产端 Producer

     

    先来回顾下 Producer 生产者发送消息的流程:

    1. 首先指定消息发送到哪个 Topic
    2. 选择一个 Topic 的分区 partitiion,默认是轮询来负载均衡。

      也可以指定一个分区 key,根据 keyhash 值来分发到指定的分区。

      也可以自定义 partition 来实现分区策略。

    3. 找到这个分区的 leader partition
    4. 与所在机器的 Brokersocket 建立通信。
    5. 发送 Kafka 自定义协议格式的请求(包含携带的消息、批量消息)。

    将思绪集中在消息发送时候,可发现这两个华点:批量消息自定义协议格式

    1. 批量发送:减少了与服务端 Broker 处理请求的次数,从而提升总体的处理能力。

      调用 send() 方法时,不会立刻把消息发送出去,而是缓存起来,选择恰当时机把缓存里的消息划分成一批数据,按批次发送给服务端 Broker

    2. 自定义协议格式:序列化方式和压缩格式都能减少数据体积,从而节省网络资源消耗。

    各种压缩算法对比:

    • 吞吐量方面:LZ4 > Snappy > zstdGZIP
    • 压缩比方面:zstd > LZ4 > GZIP > Snappy

     

    (2)服务端 Broker

    Broker 的高性能主要从这 3 个方面体现:

    1. PageCache 缓存
    2. Kafka 的文件布局 以及 磁盘文件顺序写入
    3. 零拷贝 sendfile:加速消费流程

    下面展开讲讲。

    1)PageCache 加速消息读写

    使用 PageCache 主要能带来如下好处:

    1. 写入文件的时候:操作系统会先把数据写入到内存中的 PageCache,然后再一批一批地写到磁盘上,从而减少磁盘 IO 开销。

     

    1. 读取文件的时候:也是从 PageCache 中来读取数据。

      如果消息刚刚写入到服务端就会被消费,按照 LRU 的“优先清除最近最少使用的页”这种策略,读取的时候,对于这种刚刚写入的 PageCache,命中的几率会非常高。

    2)Kafka 的文件布局 以及 磁盘文件顺序写入

    文件布局如下图所示:


    **主要特征是:**文件的组织方式是“topic + 分区”,每一个 topic 可以创建多个分区,每一个分区包含单独的文件夹。

    Kafka 在分区级别实现文件顺序写:即多个文件同时写入,更能发挥磁盘 IO 的性能。

    • 相对比 RocketMQ RocketMQ 在消息写入时追求极致的顺序写,所有的消息不分主题一律顺序写入 commitlog 文件, topic 和 分区数量的增加不会影响写入顺序。

    • 弊端: Kafka 在消息写入时的 IO 性能,会随着 topic 、分区数量的增长先上升,后下降。

      所以使用 Kafka 时,要警惕 Topic 和 分区数量。

    3)零拷贝 sendfile:加速消费流程

    当不使用零拷贝技术读取数据时:

    流程如下:

    1. 消费端 Consumer:向 Kafka Broker 请求拉取消息

    2. Kafka BrokerOS Cache 读取消息到 应用程序的内存空间:

      1. OS Cache 中有消息,则直接读取
      2. OS Cache 中无消息,则从磁盘里读取
    3. 再通过网卡,socket 将数据发送给 消费端Consumer

    当使用零拷贝技术读取数据:

    Kafka 使用零拷贝技术可以把这个复制次数减少一次,直接从 PageCache 中把数据复制到 Socket 缓冲区中。

    • 这样不用将数据复制到用户内存空间。
    • DMA 控制器直接完成数据复制,不需要 CPU 参与,速度更快。


     

    (3)消费端 Consumer

    消费者只从 Leader分区批量拉取消息。

    为了提高消费速度,多个消费者并行消费比不可少。 Kafka 允许创建消费组(唯一标识 group.id),在同一个消费组的消费者共同消费数据。

    举个栗子:

    • 有两个 Kafka Broker,即有 2个机子
    • 有一个主题:TOPICA,有 3 个分区(0, 1, 2)

     

    如上图,举例 4 中情况:

    1. group.id = 1,有一个消费者:这个消费者要处理所有数据,即 3 个分区的数据。

    2. group.id = 2,有两个消费者:consumer 1消费者需处理 2个分区的数据,consumer2 消费者需处理 1个分区的数据

    3. group.id = 3,有三个消费者:消费者数量与分区数量相等,刚好每个消费者处理一个分区

    4. group.id = 4,有四个消费者:消费者数量 > 分区数量,第四个消费者则会处于空闲状态


     

  • 相关阅读:
    antd-table同一行内容不同列数据进行大小对比
    【用unity实现100个游戏之15】开发一个类保卫萝卜的Unity2D塔防游戏1(附项目源码)
    jquery 滚动条滚动到底部触发事件
    《痞子衡嵌入式半月刊》 第 66 期
    活动报名:如何零基础快速上手开源的 Tapdata Live Data Platform?
    C++的文件操作
    Gradle系列——Gradle测试,Gradle生命周期,settings.gradle说明,Gradle任务(基于Groovy文档4.0.4)day2-3
    三级分类的数据表设计和构造API数据
    安全性归约(构造 2)
    #国产工业软件#外行人看工业软件,接轨还是出轨?
  • 原文地址:https://blog.csdn.net/m0_73088370/article/details/126471945