• Kafka的这些重要概念,不管啥时候都得牢记


    Kafka有一些重要概念,有一些刚开始学的同学会混淆,还有一部分使用Kafka很久的同学也有可能会忘了。

    那今天分享一波Kafka的重点概念,让大家对 Kafka有个整体的认识和感知或者重温一下,后面还会详细的解析每一个概念的作用以及更深入的原理。

    Producer:消息生产者,向 Kafka Broker 发消息的客户端。

    Consumer:消息消费者,从 Kafka Broker 取消息的客户端。

    Consumer Group:消费者组(CG),消费者组内每个消费者负责消费不同分区的数据,提高消费能力。一个分区只能由组内一个消费者消费,消费者组之间互不影响。所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。

    Broker:一台 Kafka 机器就是一个 Broker。一个集群由多个 Broker 组成。一个 Broker 可以容纳多个 Topic。

    Topic:可以理解为一个队列,Topic 将消息分类,生产者和消费者面向的是同一个 Topic。

    Partition:为了实现扩展性,提高并发能力,一个非常大的 Topic 可以分布到多个 Broker (即服务器)上,一个 Topic 可以分为多个 Partition,每个 Partition 是一个 有序的队列。

    Replica:副本,为实现备份的功能,保证集群中的某个节点发生故障时,该节点上的 Partition 数据不丢失,且 Kafka 仍然能够继续工作,Kafka 提供了副本机制,一个 Topic 的每个分区都有若干个副本,一个 Leader 和若干个 Follower。

    Leader:每个分区多个副本的“主”副本,生产者发送数据的对象,以及消费者消费数据的对象,都是 Leader。

    Follower:每个分区多个副本的“从”副本,实时从 Leader 中同步数据,保持和 Leader 数据的同步。Leader 发生故障时,某个 Follower 还会成为新的 Leader。

    Offset:消费者消费的位置信息,监控数据消费到什么位置,当消费者挂掉再重新恢复的时候,可以从消费位置继续消费。

    ZooKeeper:Kafka 集群能够正常工作,需要依赖于 ZooKeeper,ZooKeeper 帮助 Kafka 存储和管理集群信息。

    消息和批次

    Kafka中的数据单元称为消息(message)。如果你对数据库非常了解,那么您可以将其视为与数据库中行或记录类似。就Kafka而言,消息只是一个字节数组,因此其中包含的数据对Kafka没有特定的格式或含义。消息可以具有可选的元数据位,其被称为key。key也是一个字节数组,与消息一样,对Kafka没有特定含义。当消息以更受控制的方式写入分区时,使用key。最简单的方案是生成key的一致哈希,然后通过获取哈希模的结果(主题中的分区总数)来选择该消息的分区号。这可确保具有相同key的消息始终写入同一分区。

    为了提高效率,将消息分批写入Kafka。批处理只是一组消息,所有消息都生成到同一主题和分区。每条消息通过网络进行单独的往返会导致过度的开销,而将消息一起收集到一个批处理中则会减少这种情况。当然,这是延迟和吞吐量之间的权衡:批次越大,每单位时间可以处理的消息越多,但单个消息传播所需的时间就越长。批次通常也是压缩的,以一些处理能力为代价提供更有效的数据传输和存储。

    消息

    是Kafka中的最小数据单元,类比“数据库”中的一条记录;消息由字节数组组成,Kafka没有具体的格式和定义,但是客户端提供的消息定义中有一组可选的数据单元:

    publicfinalclassProducerRecord{
    privatefinalStringtopic;//消息主题
    privatefinalIntegerpartition;//消息分区
    privatefinalK key;//消息的键
    privatefinalV value;//消息值
    }

    在以上的字段中,只有消息主题是必须的,标识这个消息的分类。

    批次

    同我们常说的分批处理思想中的批次概念是一致的;从根本上来讲都是为了减少消耗,提升效率。

    如果每一个生产者产生一条消息,我们就写到网络中,会带来大量的开销,所以将消息分批次来传递;当然分批会带来延迟,这样就需要在延迟和吞吐量之间做一个权衡,Kafka提供参数来给开发者优化这种平衡。

    单个批次消息越多,延迟越大,同时消息会被压缩,来提升数据的传输和存储能力,当然压缩更消耗CPU。

    批次里面的消息都是属于同一个主题中的同一个分区,这样可以保证一次发送一批消息时的网络开销最小。

    模式(Schemas)

    虽然消息是Kafka本身的不透明字节数组,但建议在消息内容上加上额外的结构或模式,以便易于理解。消息架构有许多选项,具体取决于您的应用程序的个性化需求。简单系统,例如JavascriptObjectNotation(JSON)和可扩展标记语言(XML),易于使用且易于阅读。

    但是,它们缺乏强大的类型处理和模式版本之间的兼容性等功能。许多Kafka开发人员都赞成使用ApacheAvro,这是一个最初为Hadoop开发的序列化框架。Avro提供紧凑的序列化格式;与消息有效负载分离的模式,不需要在更改时生成代码;强大的数据类型和模式演变,兼具向后和向前兼容性。

    一致的数据格式在Kafka中很重要,因为它允许写入和读取消息分离。当这些任务紧密耦合时,必须更新订阅消息的应用程序以处理新数据格式,与旧格式并行。只有这样才能更新发布消息的应用程序以使用新格式。通过使用定义良好的模式并将它们存储在一个通用的存储库中,可以无需协调地理解Kafka中的消息。

    主题和分区

    Kafka 里的消息用主题进行分类(主题好比数据库中的表), 主题下有可以被分为若干个分区(分表技术) 。

    分区本质上是个提交日志文件, 有新消息,这个消息就会以追加的方式写入分区(写文件的形式), 然后用先入先出的顺序读取。

    主题

    是消息的分类标识,类似于文件系统中的文件夹

    分区

    是一个主题的队列,同一个主题会包含若干分区,每一个分区都是一个提交记录,消息会被追加到分区中,在一个分区中保证顺序,以先入先出的顺序被消费。

    Kafka为每个分区中维护着一个偏移量,偏移量记录着当前分区的消费记录,偏移量保存在分布式协同服务器ZooKeeper上。

    分区在Kafka中有着重要的意义,Kafka通过分区来实现数据冗余和主题的横向扩展;多个分区可以分布在不同的kafka服务端机器上,这使主题也可以横跨多个服务器存在,保证了分布式的能力;

    在消息中讲到了消息的键,在消息没有配置键的时候,生产者会把消息均衡的写入到各个分区。当我们需要把特定的消息写入到固定的分区时,可以通过消息的键和分区器来实现,分区器会将键生成成散列值,并映射到各个分区上。

    为了大量的消息能负载分散,要求主题的分区数要大于当前Kafka的broker服务器数量,这样才能保证所有每个broker能分担到消息的压力。在实际生产中,我们可以增加分区来给主题扩容,但是不能减少分区。

    选定分区数量是一个需要经验的事情,需要考虑多个因素:

    主题需要多大的吞吐
    单个分区的最大吞吐量多少
    每个broker上拥有的分区数量,这需要考量磁盘和网络带宽
    单个分区上拥有的分区也不能太多,毕竟分区越多内存也越大,重新选举的时间也越长

    需要注意的是,如果使用了消息的键来控制消息写入分区,那么增加主题时就需要慎重了,因为这会带来rehash的问题。

    生产者和消费者

    Kafka客户端是系统用户,有两种基本类型:生产者和消费者。还有高级客户端API- 用于数据集成的Kafka ConnectAPI和用于流处理的KafkaStreams。高级客户端使用生产者和消费者作为构建块,并在顶部提供更高级别的功能。

    生产者

    生产者创造新的信息。在其他发布/订阅系统中,这些可以称为发布者或编写者。通常,将为特定主题生成消息。默认情况下,生产者不关心特定消息写入的分区,并将均衡地平衡主题的所有分区上的消息。

    在某些情况下,生产者会将消息定向到特定分区。这通常使用消息key和分区程序来完成,该分区程序将生成key的散列并将其映射到特定分区。这确保了使用给定key生成的所有消息都将写入同一分区。生产者还可以使用遵循其他业务规则的自定义分区程序将消息映射到分区。

    消费者

    消费者阅读消息。在其他发布/订阅系统中,这些客户端可以被称为订阅者或读者。消费者订阅一个或多个主题,并按消息的生成顺序读取消息。消费者通过跟踪消息的偏移来跟踪它已经消耗了哪些消息。

    偏移量(Offset)是元数据 -一个不断增加的整数值 -Kafka在生成时添加到每个消息中。给定分区中的每条消息都有唯一的偏移量。通过在Zookeeper或Kafka本身中存储每个分区的最后消耗消息的偏移量,消费者可以停止并重新启动而不会丢失其位置。

    消费者负责消费者群组的一部分工作,消费者群组是一起工作以消费主题的一个或多个分区。该小组确保每个分区仅由一名成员消费。在单个组中有三个消费者使用主题。其中两个消费者分别在一个分区工作,而第三个消费者在两个分区工作。消费者对分区的映射通常称为消费者对分区的所有权。

    不同的消费者群组可以读取同一个主题,但对于同一个群组中不同消费者不能读取相同分区

    **图片**

    通过这种方式,消费者可以横向扩展以消费具有大量消息的主题。此外,如果单个使用者失败,则该组的其余成员将重新平衡正在使用的分区以接管缺少的成员。

    保留消息

    保留消息是Kafka的一个重要特性。Kafkabroker默认的消息保留策略有两种。

    保留一段固定的时间,比如7天。

    保留到消息达到一定大小的字节数,如1GB 当达到上限后,旧的消息会过期从而被删除。所以在任何时刻,可用消息的总量不会超过配置参数所指定的大小。

    多集群

    随着Kafka部署的增长,拥有多个集群通常是有利的。有几个原因可以解决这个问题:

    分离数据类型

    为安全要求隔离

    多个数据中心(灾难恢复)

    特别是在处理多个数据中心时,通常需要在它们之间复制消息。通过这种方式,在线应用程序可以访问两个站点的用户活动。例如,如果用户更改其配置文件中的公共信息,则无论显示搜索结果的数据中心如何,都需要显示该更改。或者,可以将监控数据从许多站点收集到分析和警报系统所在的单个中心位置。Kafka集群中的复制机制仅设计用于单个集群,而不是多个集群之间。

    Kafka项目包括一个名为MirrorMaker的工具,用于此目的。MirrorMaker的核心是Kafka消费者和生产者,与队列链接在一起。消息从一个Kafka集群中消耗并为另一个集群生成。使用MirrorMaker架构,将来自两个本地群集的消息聚合到聚合群集中,然后将该群集复制到其他数据中心。应用程序的简单特性掩盖了它在创建复杂数据管道方面的能力。

    如果想学习大数据方面,不妨看看下面这个学习路线~

    Python+大数据学习路线图详细介绍

    第一阶段 大数据开发入门

    学前导读:从传统关系型数据库入手,掌握数据迁移工具、BI数据可视化工具、SQL,对后续学习打下坚实基础。

    1.大数据数据开发基础MySQL8.0从入门到精通

    MySQL是整个IT基础课程,SQL贯穿整个IT人生,俗话说,SQL写的好,工作随便找。本课程从零到高阶全面讲解MySQL8.0,学习本课程之后可以具备基本开发所需的SQL水平。

    2022最新MySQL知识精讲+mysql实战案例_零基础mysql数据库入门到高级全套教程

    第二阶段 大数据核心基础

    学前导读:学习Linux、Hadoop、Hive,掌握大数据基础技术。

    2022版大数据Hadoop入门教程
    Hadoop离线是大数据生态圈的核心与基石,是整个大数据开发的入门,是为后期的Spark、Flink打下坚实基础的课程。掌握课程三部分内容:Linux、Hadoop、Hive,就可以独立的基于数据仓库实现离线数据分析的可视化报表开发。

    2022最新大数据Hadoop入门视频教程,最适合零基础自学的大数据Hadoop教程

    第三阶段 千亿级数仓技术

    学前导读:本阶段课程以真实项目为驱动,学习离线数仓技术。

    数据离线数据仓库,企业级在线教育项目实战(Hive数仓项目完整流程)
    本课程会、建立集团数据仓库,统一集团数据中心,把分散的业务数据集中存储和处理 ;目从需求调研、设计、版本控制、研发、测试到落地上线,涵盖了项目的完整工序 ;掘分析海量用户行为数据,定制多维数据集合,形成数据集市,供各个场景主题使用。

    大数据项目实战教程_大数据企业级离线数据仓库,在线教育项目实战(Hive数仓项目完整流程)

    第四阶段 PB内存计算

    学前导读:Spark官方已经在自己首页中将Python作为第一语言,在3.2版本的更新中,高亮提示内置捆绑Pandas;课程完全顺应技术社区和招聘岗位需求的趋势,全网首家加入Python on Spark的内容。

    1.python入门到精通(19天全)

    python基础学习课程,从搭建环境。判断语句,再到基础的数据类型,之后对函数进行学习掌握,熟悉文件操作,初步构建面向对象的编程思想,最后以一个案例带领同学进入python的编程殿堂。

    全套Python教程_Python基础入门视频教程,零基础小白自学Python必备教程

    2.python编程进阶从零到搭建网站

    学完本课程会掌握Python高级语法、多任务编程以及网络编程。

    Python高级语法进阶教程_python多任务及网络编程,从零搭建网站全套教程

    3.spark3.2从基础到精通

    Spark是大数据体系的明星产品,是一款高性能的分布式内存迭代计算框架,可以处理海量规模的数据。本课程基于Python语言学习Spark3.2开发,课程的讲解注重理论联系实际,高效快捷,深入浅出,让初学者也能快速掌握。让有经验的工程师也能有所收获。

    Spark全套视频教程,大数据spark3.2从基础到精通,全网首套基于Python语言的spark教程

    4.大数据Hive+Spark离线数仓工业项目实战

    通过大数据技术架构,解决工业物联网制造行业的数据存储和分析、可视化、个性化推荐问题。一站制造项目主要基于Hive数仓分层来存储各个业务指标数据,基于sparkSQL做数据分析。核心业务涉及运营商、呼叫中心、工单、油站、仓储物料。

    全网首次披露大数据Spark离线数仓工业项目实战,Hive+Spark构建企业级大数据平台

  • 相关阅读:
    第18章linux系统-备份与恢复
    计算机组成原理知识点总结——第三章存储系统
    智慧路灯| 云计算点亮智慧城市的“星星之火”
    创建实例化新表格及新行
    【数据结构初阶】树&&二叉树
    【Java】异常处理(一)
    天猫复购预测训练赛技术报告
    【SA8295P 源码分析 (二)】46 - OpenWFD Server 启动流程 之 /dev/openwfd_server_0 管道事务源码分析
    电机与拖动 - 2 变压器
    Qt之qobject_cast实现
  • 原文地址:https://blog.csdn.net/weixin_51689029/article/details/126041256