• Kafka入门



       kafka无疑是当今互联网公司使用最广泛的分布式实时消息流系统,它的高吞吐量,高可靠等特点为并发下的大批量实时请求处理提供了可靠保障。很多同学在项目中都用到过kafka,但是对kafka的设计原理以及处理机制并不是十分清楚。为了知其然知其所以然,本文主要从三个方面介绍kafka,第一,kafka简介以及适用场景,第二,kafka设计原理,三,常见问题及思考。
    
    • 1

    一、kafka简介及适用场景

    **kafka官网上对 kafka 的定义:**一个分布式发布-订阅消息传递系统。主要特点包括高吞吐量、持久化(消息持久化到磁盘,支持批量和实时处理)、可扩展性、容错性。

    kafka 相关术语:

    Message(消息):基本数据单元(key-value形式)。为了提高效率,消息被分批次写入 kafka。批次就是一组消息,这些消息属于同一个Topic和Partition。

    Topic(主题):每条消息都有一个类别,这个类别被称为 Topic。Topic类似于数据库的表或者一个文件夹,物理上不同 Topic 的消息分开存储。

    Partition(分区):每个 Topic 包含一个或多个 Partition。Partition是物理概念,通常,一个Topic的消息被均匀地分发到每个partition,以追加的方式写入,先入先出的顺序读取。注:由于一个主题一般包含几个分区,因此无法在整个主题范围内保证消息的顺序,但可以保证消息在单个分区的顺序。

    Offst(偏移量):单个分区中的每一条消息都被分配一个 Offset,它是一个单调递增的整型数,可用来作为分区中消息的唯一标识符。

    Broker(缓存代理):kafka 集群包含一个或多个服务器,这种服务器被称为 broker。不维护任何消息的状态。

    Producer(生产者):负责发布消息到 kafka broker。

    Consumer(消费者):消息消费者,向 kafka broker 读取消息的客户端。

    Consumer Group(消费组):每个 Consumer 属于一个特定的 Consumer Group。注:一个分区消息只能被一个Consumer Group中的一个Consumer消费。一个Consumer可以消费多个Topic的消息。每个Group中Consumer消息消费独立。具体理解见下图,第三部分的常见问题2给出了解释。

    kafka使用场景

    1)push发送

    2)高吞吐量

    3)可以作为大缓冲区使用

    4)Hadoop或传统的数据仓库中存储消息用于离线分析

    5)nginx日志收集

    二、kafka设计原理

    一个简单的kafka集群架构如下图所示

    从图中可以看到,生产者将数据发送(push)到Broker代理,Broker代理有多个topic,消费者主动从Broker获取(pull)数据。为什么采取Broker拉去数据的方式,下面的思考问题会给出答案。在发送,拉去过程中kafka的一些机制如下。

    1、Message-partition的分配机制

    1)Key不为空时:对key进行hash后对分区数量取余运算,保证了同一个key会被分到同一个分区。

    2)key为空,则进行轮询发送。

    2、kafka 默认的消息保留策略

    要么保留一段时间,要么保留到到消息达到一定大小的字节数。

    **3、kafka消息处理机制 **

    1) 发送到partitions中的消息将会按照它接收的顺序追加到日志中。

    2)对于消费者而言,它们消费消息的顺序和日志中消息顺序一致。

    3)如果Topic的“replication factor”(复制因子)为N,那么允许N-1个kafka实例失效,比如3副本的设置允许2个副本失效。

    4)kafka提供at-least-once(至少一次) delivery,即当consumer宕机后,有些消息可能会被重复delivery。

    5)因每个partition只会被consumer group内的一个consumer消费,故kafka保证每个partition内的消息会被顺序的消费。

    6)ack校验,当消费者消费成功,返回ack信息。

    三、常见问题及思考

    1、为什么Broker为什么不主动推送消息,然后保存消息状态为已消费?

    Broker推送消息的方式无法很好地保证消费的处理语义。比如当我们已经把消息发送给消费者之后,由于消费进程挂掉或者由于网络原因没有收到这条消息,如果我们在消费代理将其标记为已消费,这个消息就永久丢失了。kafka 采取拉取模型(pull),由自己控制消费速度,以及消费的进度,消费者可以按照任意的偏移量进行消费。比如消费者可以消费已经消费过的消息进行重新处理,或者消费最近的消息。

    2、为什么一个分区消息只能被一个消费组中的一个消费者消费?

    我们可以假设同一个消费组中的消费者1 已经消费了1-10,那么该分区的消费index 需要移动到10的位置。当同一个消费组中的消费者2希望消费10-20时,index再继续进行移动。

    问题1我们已经了解了broker维护消息状态的以及索引的弊端。那么就需要在consumer端进行多个index维护,那么就得引入中心的概念,大家都在中心去获得当前的index,这会增加复杂性。因此,虽然牺牲了分区的分布式消费。但是因为可以有多个分区,也是一个比较合理的方案。

    3、为什么发送了消息,接收端确没有收到消息?

    a、确认发送方和接收方配置的topic是否一致;

    b、确认发送方和接收方配置的kafka集群是否一致(jps命令查看集群是否启动)

    c、确认发送方和接收方配置的是不是同一个partition;

    d、查看时间戳的方式确认发送方的消息是否落入到kafka的日志中;

    d.1没有落入相应partition的kafka日志中(即kafka没有接收到)

    1)发送方是否有特殊配置,即一定量的消息才发送到kafka中(批量发送,可设置);

    2)消息没有发送成功,消息格式不正确或者kafka发送工具问题;

    d.2kafka日志中(即kafka没有接收到)

    1)接收端offset设置有误,导致接收不到消息;

    2)接收端拉取消息出现问题

    四、总结

    文本简述了kafka的简介以及原理,企业在实际使用中还会有很多新的挑战。

    哈喽,喜欢这篇文章的话烦请点个赞哦!万分感谢(^▽^)PS:有问题可以联系我们哦v ceshiren001

    复制“下方链接”,提升测试核心竞争力!
    更多技术文章分享和免费资料领取

  • 相关阅读:
    10.1- 10.3读书笔记
    Metabase学习教程:提问-4
    Karmada v1.3:更优雅 更精准 更高效
    竞赛 深度学习+opencv+python实现昆虫识别 -图像识别 昆虫识别
    mybatis-plus 分页插件
    深度优先搜索
    【Java 基础篇】Java Condition 接口详解
    硬件开发趋势与技术探索
    Zookeeper入门
    【定制项目】【M15 消防安全宣传】主要模块:视频 + 音频 + 图标 + 问答游戏
  • 原文地址:https://blog.csdn.net/Tester_muller/article/details/125550820