• Kafka从入门到精通


    1. Kafka 概述

    1.1 kafka简介

    Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala和Java编写。Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者在网站中的所有动作流数据。

    具备以下特点:

    通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。
    高吞吐量:即使是非常普通的硬件Kafka也可以支持每秒数百万的消息。
    支持通过Kafka服务器和消费机集群来分区消息。

    1.2 消息队列

    1.2.1 使用消息队列的好处

    1)解耦
    允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束。

    2)可恢复性
    系统的一部分组件失效时,不会影响到整个系统。消息队列降低了进程间的耦合度,所以即使一个处理消息的进程挂掉,加入队列中的消息仍然可以在系统恢复后被处理。

    3)缓冲
    有助于控制和优化数据流经过系统的速度,解决生产消息和消费消息的处理速度不一致的情况。

    4)灵活性 & 峰值处理能力
    在访问量剧增的情况下,应用仍然需要继续发挥作用,但是这样的突发流量并不常见。如果为以能处理这类峰值访问为标准来投入资源随时待命无疑是巨大的浪费。使用消息队列能够使关键组件顶住突发的访问压力,而不会因为突发的超负荷的请求而完全崩溃。

    5)异步通信
    很多时候,用户不想也不需要立即处理消息。消息队列提供了异步处理机制,允许用户把一个消息放入队列,但并不立即处理它。想向队列中放入多少消息就放多少,然后在需要的时候再去处理它们。

    1.2.2 消息队列的两种模式

    (1)点对点模式(一对一,消费者主动拉取数据,消息收到后消息清除)
    消息生产者生产消息发送到Queue中,然后消息消费者从Queue中取出并且消费消息。
    消息被消费以后,queue 中不再有存储,所以消息消费者不可能消费到已经被消费的消息。
    Queue 支持存在多个消费者,但是对一个消息而言,只会有一个消费者可以消费。
    在这里插入图片描述
    2)发布/订阅模式(一对多,消费者消费数据之后不会清除消息)
    消息生产者(发布)将消息发布到 topic 中,同时有多个消息消费者(订阅)消费该消息。和点对点方式不同,发布到 topic 的消息会被所有订阅者消费。
    在这里插入图片描述

    1.3 Kafka 基础架构

    在这里插入图片描述1)Producer :消息生产者,就是向 kafka broker 发消息的客户端;

    2)Consumer :消息消费者,向 kafka broker 取消息的客户端;

    3)Consumer Group (CG):消费者组,由多个 consumer 组成。消费者组内每个消费者负责消费不同分区的数据,一个分区只能由一个组内消费者消费;消费者组之间互不影响。所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。

    4)Broker :一台 kafka 服务器就是一个 broker。一个集群由多个 broker 组成。一个 broker可以容纳多个 topic。

    5)Topic :可以理解为一个队列,生产者和消费者面向的都是一个 topic;

    6)Partition:为了实现扩展性,一个非常大的 topic 可以分布到多个 broker(即服务器)上,一个 topic 可以分为多个 partition,每个 partition 是一个有序的队列;

    7)Replica:副本,为保证集群中的某个节点发生故障时,该节点上的 partition 数据不丢失,且 kafka 仍然能够继续工作,kafka 提供了副本机制,一个 topic 的每个分区都有若干个副本,一个 leader 和若干个follower。

    8)leader:每个分区多个副本的“主”,生产者发送数据的对象,以及消费者消费数据的对象都是 leader。

    9)follower:每个分区多个副本中的“从”,实时从 leader 中同步数据,保持和 leader 数据的同步。leader 发生故障时,某个 follower 会成为新的 follower。

    2.单机版kafka搭建

    2.1 下载kafka

    https://kafka.apache.org/downloads.html
    在这里插入图片描述上传到linux服务器
    cd /usr/share
    mkdir kafka
    cp kafka_2.11-0.11.0.0.tgz kafka
    tar -xvf kafka_2.11-0.11.0.0.tgz

    2.2 修改配置

    cd config
    cp server.properties server0.properties
    需要修改的有:broker.id、delete.topic.enable、listeners、log.dirs、zookeeper.connect
    zookeeper没有搭建集群,采用的单机版。

    单机版zookeeper安装

    将localhost改为内网ip

    #broker 的全局唯一编号,不能重复
    broker.id=0
    #删除 topic 功能使能
    delete.topic.enable=true
    # broker监听器的csv列表,格式是[协议]://[主机名]:[端口]。该参数主要用于客户端连接broker使用,可以认为是
    # broker端开放给clients的监听端口
    listeners=PLAINTEXT://localhost:9092
    #处理网络请求的线程数量
    num.network.threads=3
    #用来处理磁盘 IO 的现成数量
    num.io.threads=8
    #发送套接字的缓冲区大小
    socket.send.buffer.bytes=102400
    #接收套接字的缓冲区大小
    socket.receive.buffer.bytes=102400
    #请求套接字的缓冲区大小
    socket.request.max.bytes=104857600
    #kafka 运行日志存放的路径
    log.dirs=/usr/share/kafka/kafka_2.11-0.11.0.0/logs
    #topic 在当前 broker 上的分区个数
    num.partitions=1
    #用来恢复和清理 data 下数据的线程数量
    num.recovery.threads.per.data.dir=1
    #segment 文件保留的最长时间,超时将被删除
    log.retention.hours=168
    #配置连接 Zookeeper 集群地址
    zookeeper.connect=localhost:2181
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27

    2.3 配置环境变量

    配置环境变量

    vim /etc/profile
    #kafka
    export KAFKA_HOME=/usr/share/kafka
    export PATH=$PATH:$KAFKA_HOME/bin
    source /etc/profile
    
    • 1
    • 2
    • 3
    • 4
    • 5

    2.4 kafka常用命令行

    2.4.1 启动和关闭kafka

    bin/kafka-server-start.sh -daemon config/server0.properties

    -daemon:表示启动后的kafka服务器后台运行。

    查看kafka是否启动成功:jps kafka的主进程名是Kafka。
    在这里插入图片描述关闭kafka
    bin/kafka-server-stop.sh

    2.4.2 查询命令

    查看当前服务器中的所有 topic
    bin/kafka-topics.sh --zookeeper localhost:2181 --list

    查看某个 Topic 的详情
    bin/kafka-topics.sh --zookeeper localhost:2181 --describe --topic first

    2.4.3 创建与删除

    创建 topic
    bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic first
    –topic 定义 topic 名
    –replication-factor 定义副本数
    –partitions 定义分区数

    删除topic
    bin/kafka-topics.sh --zookeeper localhost:2181 --delete --topic first
    需要 server.properties 中设置 delete.topic.enable=true 否则只是标记删除。

    2.4.4 生产与消费

    发送消息

    bin/kafka-console-producer.sh --broker-list localhost:9092 --topic first
    >hello world
    >success !!!
    
    • 1
    • 2
    • 3

    消费消息
    bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic first (旧)
    0.8以前的kafka,消费的进度(offset)是写在Zookeeper中的,所以consumer需要知道zk的地址
    bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic first (新)
    从现在开始接受producer发送的消息
    bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic first
    –from-beginning: 会把first主题中以往所有的数据都读取出来,即从头读;

    2.5 生产者消费者吞吐量测试

    生产者
    bin/kafka-producer-perf-test.sh --topic first --num-records 500000 --record-size 200 --throughput -1 --producer-props bootstrap.servers=localhost:9092 acks=-1
    500000 records sent, 105999.576002 records/sec (20.22 MB/sec), 1150.11 ms avg latency, 1700.00 ms max latency, 1169 ms 50th, 1654 ms 95th, 1687 ms 99th, 1698 ms 99.9th.
    表明这台机器上运行一个kafka producer的平均吞吐量是20MB/s,即占用160Mb/s,评价每秒能发送105999条消息,平均延时是1.15秒,最大延时是1.7秒,平均有50%的消息发送需要花费1.16秒。

    消费者
    bin/kafka-consumer-perf-test.sh --broker-list localhost:9092 --fetch-size 2000 --messages 500000 --topic first
    start.time, end.time, data.consumed.in.MB, MB.sec, data.consumed.in.nMsg, nMsg.sec
    2022-08-14 23:02:56:436, 2022-08-14 23:02:59:881, 95.3675, 27.6829, 500002, 145138.4615
    表明这台机器consumer在3秒多的时间内总共消费了95MB的消息,吞吐量为27MB/s。

  • 相关阅读:
    YGG 公会发展计划第 1 季总结
    lvgl 画好一个圆弧arc 要了解的相关知识
    Postman的安装及简单使用(API调试工具)
    机器学习常见降维方法及Python示例汇总【附完整代码】
    CAD——MV视口与图层
    通过 SAP UI5 ODataModel API 在 JavaScript 代码里访问 OData 元数据试读版
    [Linux]进程程序替换
    GitHub要求开启2FA,否则不让用了。
    【博客系统】 二
    DDD 架构分层,MQ消息要放到那一层处理?
  • 原文地址:https://blog.csdn.net/qq_44300280/article/details/126335538