• Kafka - 3.x 文件存储不完全指北



    在这里插入图片描述


    Topic数据的存储机制

    Kafka是一个分布式流处理平台,它使用发布-订阅模型来处理消息流。Kafka的数据存储机制主要涉及到以下几个关键组件:Topics(主题)、Partitions(分区)和Segments(段)。

    1. Topic(主题):

      • Topic是Kafka中数据流的逻辑通道,用于组织和分类消息。消息发布者将消息发送到特定的主题,而消息订阅者则可以订阅感兴趣的主题以接收消息。
      • 每个主题可以有零个或多个分区,这取决于配置和性能需求。
    2. Partitions(分区):

      • 每个主题可以被划分成一个或多个分区,分区是Kafka中的基本存储单元。
      • 分区允许水平扩展,提高并行性和吞吐量。消息在分区内是有序的,但不保证全局有序。
      • 每个分区在物理上保存在不同的服务器上,以支持数据的分布式存储和处理。
    3. Segments(段):

      • 每个分区的数据实际上被分成多个段,每个段都是一个日志文件,用于持久存储消息。
      • 每个段都有一个固定的大小,一旦达到该大小,就会创建一个新的段。
      • 段的持久性和不断追加新消息的特性使Kafka适合于高吞吐量的数据流处理。

    Kafka的数据存储机制的关键优点包括:

    • 高吞吐量:Kafka能够处理大量的消息,因为数据分布在多个分区和段中,允许并行处理。
    • 数据持久性:消息在Kafka中是持久存储的,因此即使消费者没有立即处理它们,数据也不会丢失。
    • 水平扩展:通过增加分区和服务器,可以轻松扩展Kafka的容量和性能。

    总之,Kafka的数据存储机制通过主题、分区和段的组织,支持高吞吐量的消息流处理,使其成为一种强大的数据流平台。


    演示

    基本信息

    在这里插入图片描述

    使用kafka-run-class.sh查看index内容

    [root@localhost artisan-0]# /root/kafka/kafka/bin/kafka-run-class.sh kafka.tools.DumpLogSegments --files   ./00000000000000000000.index
    Dumping ./00000000000000000000.index
    offset: 0 position: 0
    Mismatches in :/tmp/kafka-logs/artisan-0/./00000000000000000000.index
      Index offset: 0, log offset: 3
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    使用kafka-run-class.sh查看log内容

    
    [root@localhost artisan-0]# /root/kafka/kafka/bin/kafka-run-class.sh kafka.tools.DumpLogSegments --files   ./00000000000000000000.log
    Dumping ./00000000000000000000.log
    Log starting offset: 0
    baseOffset: 0 lastOffset: 3 count: 4 baseSequence: 0 lastSequence: 3 producerId: 2012 producerEpoch: 0 partitionLeaderEpoch: 0 isTransactional: false isControl: false deleteHorizonMs: OptionalLong.empty position: 0 CreateTime: 1698303603739 size: 137 magic: 2 compresscodec: none crc: 3622782875 isvalid: true
    baseOffset: 4 lastOffset: 13 count: 10 baseSequence: 0 lastSequence: 9 producerId: 2013 producerEpoch: 0 partitionLeaderEpoch: 0 isTransactional: false isControl: false deleteHorizonMs: OptionalLong.empty position: 137 CreateTime: 1698304010395 size: 241 magic: 2 compresscodec: none crc: 1795667702 isvalid: true
    baseOffset: 14 lastOffset: 23 count: 10 baseSequence: 0 lastSequence: 9 producerId: 2014 producerEpoch: 0 partitionLeaderEpoch: 0 isTransactional: false isControl: false deleteHorizonMs: OptionalLong.empty position: 378 CreateTime: 1698304027258 size: 241 magic: 2 compresscodec: none crc: 2868390514 isvalid: true
    baseOffset: 24 lastOffset: 28 count: 5 baseSequence: 0 lastSequence: 4 producerId: 2017 producerEpoch: 0 partitionLeaderEpoch: 0 isTransactional: false isControl: false deleteHorizonMs: OptionalLong.empty position: 619 CreateTime: 1698304616155 size: 156 magic: 2 compresscodec: none crc: 1863625421 isvalid: true
    baseOffset: 29 lastOffset: 33 count: 5 baseSequence: 0 lastSequence: 4 producerId: 2018 producerEpoch: 0 partitionLeaderEpoch: 0 isTransactional: false isControl: false deleteHorizonMs: OptionalLong.empty position: 775 CreateTime: 1698304624578 size: 156 magic: 2 compresscodec: none crc: 739158864 isvalid: true
    baseOffset: 34 lastOffset: 43 count: 10 baseSequence: 0 lastSequence: 9 producerId: 3000 producerEpoch: 0 partitionLeaderEpoch: 0 isTransactional: false isControl: false deleteHorizonMs: OptionalLong.empty position: 931 CreateTime: 1698373784040 size: 181 magic: 2 compresscodec: snappy crc: 3489556255 isvalid: true
    [root@localhost artisan-0]#
    
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13

    index文件和log文件详解

    在这里插入图片描述


    日志存储参数配置

    参数描述
    log.segment.bytesKafka中log日志是分成一块块存储的,此配置是指log日志划分成块的大小,默认值1G。
    log.index.interval.bytes默认4kb,Kafka里每当写入了4kb大小的日志(.log),然后就往index文件里面记录一个索引。稀疏索引。

    文件清理策略

    综述

    Kafka的日志清理策略是为了管理磁盘上的数据,确保系统的性能和可用性。日志清理策略通常与消息日志的保留策略相关。以下是Kafka的日志清理策略的要点:

    1. 日志保留策略:

      • Kafka允许配置保留消息日志的时间(通过log.retention.ms参数)或消息数量(通过log.retention.bytes参数)。
      • 消息日志可以保留一定时间(例如,一周)或一定大小的消息(例如,10 GB),之后将进行清理。
    2. Segments(段):

      • Kafka的消息日志被分成多个段(log segment),每个段包含一定数量的消息。
      • 清理策略针对这些段执行。段的创建和关闭是基于时间和大小的策略。
    3. 日志清理策略类型:

      • Kafka支持两种主要的日志清理策略:删除策略(Delete)和压缩策略(Compact)。
      • 删除策略通过删除旧的日志段来释放磁盘空间。这是默认策略。
      • 压缩策略通过保留消息键相同的最新消息,删除旧版本的消息。这对于维护有状态应用程序非常有用。
    4. 消息日志清理的触发:

      • 清理策略的触发可以由多个因素决定,包括时间(log.retention.ms)、日志大小(log.retention.bytes)、活动日志段的数量和特定主题的配置。
      • 通常,Kafka会周期性地执行清理任务,确保消息日志不会无限增长。
    5. 日志清理的影响:

      • 日志清理可能导致消息丢失,特别是对于删除策略。因此,清理策略的配置需要谨慎考虑,以平衡磁盘空间和消息保留需求。

    总之,Kafka的日志清理策略是一个关键组成部分,用于管理消息日志的大小和维护磁盘空间。根据业务需求,可以选择不同的保留策略和清理策略,以满足数据保留、性能和可用性方面的要求。


    1. kafka数据文件保存时间:默认是7天
    2. kafka数据文件保存可通过如下参数修改
      ① log.retention.hours:最低优先级小时, 默认7天(168小时)
      ② log.retention.minutes:分钟
      ③ log.retention.ms:最高优先级毫秒
      ④ log.retention.check.interval.ms:负责设置检查周期,默认5分钟。

    清理策略

    3.那么一旦超过了设置的时间就会采取清理策略,清理策略有两种:delete和compact

    1)delete策略

    delete日志删除:将过期数据删除。
    配置:log.cleanup.policy=delete
    基于时间:默认打开,以segment中所有记录中的最大时间戳作为文件时间戳
    基于大小:默认关闭,超过设置的所有日志大小,删除最早的segment。
    log.retention.bytes,默认等于-1,表示无穷大。

    2)compact日志策略

    在这里插入图片描述


    高效读写的原因

    1. Kafka本身是分布式集群,可以采用分区技术,并行度高

    2. 读数据采用稀疏索引,可以快速定位要消费的数据

    3. 顺序写磁盘

      Kafka的producer生产数据,要写入到log文件中,写的过程是一直追加到文件末端,为顺序写。官网有数据表明,同样的磁盘,顺序写能到600M/s,而随机写只有100K/s。这与磁盘的机械机构有关,顺序写之所以快,是因为其省去了大量磁头寻址的时间。

    在这里插入图片描述

    1. 页缓存+零拷贝技术

    在这里插入图片描述

    参数描述
    log.flush.interval.messages强制页缓存刷写到磁盘的条数,默认是long的最大值,9223372036854775807。一般不建议修改,交给系统自己管理。
    log.flush.interval.ms每隔多久,刷数据到磁盘,默认是null。一般不建议修改,交给系统自己管理。

    在这里插入图片描述

  • 相关阅读:
    Ubuntu 安装 CUDA 与 CUDNN GPU加速引擎
    Flask 常用组件
    gym 动作空间,观测空间学习
    互融云供应链金融软件平台 实现多渠道数据连接整合
    文件上传漏洞(2), 文件上传实战绕过思路, 基础篇
    力控关节机器人(关节扭矩传感器力控)
    如何在Windows11上使用macOS Sonoma全新的慢镜屏幕保护程序
    便捷生活,从便民平台开始
    使用Python进行App用户细分
    网球天地杂志网球天地杂志社网球天地编辑部2022年第7期目录
  • 原文地址:https://blog.csdn.net/yangshangwei/article/details/134079058