• Kafka - 06 Kafka 集群环境搭建(三台虚拟机)


    1. 克隆虚拟机

    kafka集群搭建,需要3台虚拟机环境,但是我目前只安装了一台虚拟机,因此还需要准备两台虚拟机环境,正常情况下应该再安装2台虚拟机,这里为了方便直接克隆出3台虚拟机。

    ① 选中 CentOs7 右键—> 管理—> 克隆—> 执行克隆操作:

    在这里插入图片描述

    ② 下一页,选择创建完整克隆:

    在这里插入图片描述

    ③ 填入虚拟机名称和安装位置:

    在这里插入图片描述

    ④ 按照上面的步骤创建3台虚拟机环境,先不要开机不然会ip地址冲突:

    在这里插入图片描述

    ⑤ 修改每台虚拟机的IP地址:vi /etc/sysconfig/network-scripts/ifcfg-ens33

    hadoop-101 虚拟机的 IPADDR 的地址改为:192.168.38.23;hadoop-102 的改为192.168.38.24;hadoop-103 虚拟机的 IPADDR 的地址改为:192.168.38.25;

    在这里插入图片描述

    ⑥ 修改每台虚拟机的主机名称 hostname:vi /etc/hostname

    hadoop-101 虚拟机的 hostname 改为:hadoop101;hadoop-102 虚拟机的改为:hadoop102;hadoop-103 虚拟机的 hostname 的地址改为:hadoop103;

    在这里插入图片描述

    ⑦ 将每台虚拟机的 hostname 和 ip 绑定,添加下面三行:vi /etc/hosts

    在这里插入图片描述

    ⑧ 执行 reboot 命令重启每台虚拟机,然后使用 mobaxterm/xshell工具连接每台虚拟机。

    2. Zookeeper 集群搭建

    在前面文章 Kafka - 03 Kafka安装 | 单机环境搭建 | 伪集群环境搭建 (一台虚拟机) 中,我使用一台虚拟机环境搭建了kafka伪集群,而我们现在的3台虚拟机是基于这台虚拟机克隆的,因此 jdk 、 zookeeper 、kafka 已经安装了,我们只需要修改一些配置文件就行了,他们的安装目录如下:

    在这里插入图片描述

    zookeeper-01、zookeeper-02、zookeeper-03 这三个安装目录是搭建伪集群使用的,这里搭建真正的集群环境可以不用管他们,我们直接使用每个节点的 zookeeper-3.4.14 安转目录:

    在这里插入图片描述

    ① 配置每一个 zookeeper 节点的 dataDir,克隆之前已经配置过,这里直接删除重新创建data目录:

    在这里插入图片描述

    ② 在每个zookeeper的 data 目录下创建一个 myid 文件,内容分别是0、1、2 。myid 这个文件就是记录每个服务器的ID

    [root@hadoop101 zookeeper-3.4.14]# cd data
    [root@hadoop101 data]# vi myid
    [root@hadoop101 data]#
    0
    
    • 1
    • 2
    • 3
    • 4
    [root@hadoop102 zookeeper-3.4.14]# cd data
    [root@hadoop102 data]# vi myid
    [root@hadoop102 data]#
    1
    
    • 1
    • 2
    • 3
    • 4
    [root@hadoop103 zookeeper-3.4.14]# cd data
    [root@hadoop103 data]# vi myid
    [root@hadoop103 data]#
    2
    
    • 1
    • 2
    • 3
    • 4

    ③ 在每一个zookeeper 的 zoo.cfg 配置集群服务器IP列表

    server.服务器ID=服务器IP地址:服务器之间通信端口:服务器之间投票选举端口

    后面的两个端口在三个节点中只要不同即可,服务器ID就是myid文件中的值。

    server.0=192.168.38.23:2888:3888
    server.1=192.168.38.24:2888:3888
    server.2=192.168.38.25:2888:3888
    
    • 1
    • 2
    • 3

    在这里插入图片描述

    在这里插入图片描述

    ④ 启动集群:启动集群就是分别启动每个实例,启动后我们查询一下每个实例的运行状态。

    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

    查看启动状态报错 Error contacting service. It is probably not running 原因:

    • 必须3个服务都启动再查看状态,否则在查看状态时会报错;
    • 必须关闭防火墙;

    在这里插入图片描述

    3. Kafka 集群搭建

    在前面文章 Kafka - 03 Kafka安装 | 单机环境搭建 | 伪集群环境搭建 (一台虚拟机) 中,我使用一台虚拟机环境搭建了kafka伪集群,而我们现在的3台虚拟机是基于这台虚拟机克隆的,因此 jdk 、 zookeeper 、kafka 已经安装了,我们只需要修改一些配置文件就行了,他们的安装目录如下:

    在这里插入图片描述

    kafka-01、 kafka-02、 kafka-03这三个安装目录是搭建伪集群使用的,这里搭建真正的集群环境可以不用管他们,我们直接使用每个节点的 kafka_2.12-2.2.1安转目录:

    在这里插入图片描述

    修改每个kafka节点的server.properties配置文件:

    在这里插入图片描述

    broker.id=0
    listeners=PLAINTEXT://192.168.38.23:9092
    advertised.listeners=PLAINTEXT://192.168.38.23:9092
    zookeeper.connect=hadoop101:2181,hadoop102:2181,hadoop103:2181/kafka_cluster
    
    • 1
    • 2
    • 3
    • 4
    broker.id=1
    listeners=PLAINTEXT://192.168.38.24:9092
    advertised.listeners=PLAINTEXT://192.168.38.24:9092
    zookeeper.connect=hadoop101:2181,hadoop102:2181,hadoop103:2181/kafka_cluster
    
    • 1
    • 2
    • 3
    • 4
    broker.id=2
    listeners=PLAINTEXT://192.168.38.25:9092
    advertised.listeners=PLAINTEXT://192.168.38.25:9092
    zookeeper.connect=hadoop101:2181,hadoop102:2181,hadoop103:2181/kafka_cluster
    
    • 1
    • 2
    • 3
    • 4

    ① 配置 log.dirs,克隆之前已经配置过,因此直接删除重新创建logs目录

    在这里插入图片描述

    ② 配置 broker.id,这是Kafka在整个集群当中的唯一身份标识,每个节点不能重复。

    ③ 配置 zookeeper.connect,zookeeper根目录下有个 zookeeper节点,正常情况我们可以按照下面这样配置,那么kafka集群信息就会放入zookeeper节点的各个目录中:

    zookeeper.connect=hadoop101:2181,hadoop102:2181,hadoop103:2181 
    
    • 1

    如果我们想把kafka集群信息放到一个文件夹kafka_cluster下,可以添加在按照下面这样配置:

    zookeeper.connect=hadoop101:2181,hadoop102:2181,hadoop103:2181/kafka_cluster
    
    • 1

    ④ 配置 listeners,允许外部端口连接。

    ⑤ 配置 advertised.listeners,外部代理地址。

    ⑥ 启动每个 kafka 实例:

    bin/kafka-server-start.sh config/server.properties
    
    • 1

    在这里插入图片描述

    4. 测试消息发送和消费

    1. 主题操作

    在这里插入图片描述

    1. 创建主题:

    [root@hadoop101 kafka_2.12-2.2.1]# bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --create --partitions 1 --replication-factor 3 --topic test1
    
    • 1

    2. 查看主题详情:

    [root@hadoop101 kafka_2.12-2.2.1]# bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --describe --topic test1
    Topic:test1     PartitionCount:1   ReplicationFactor:3   Configs:segment.bytes=1073741824
    Topic: test1    Partition: 0    Leader: 0       Replicas: 0,1,2 Isr: 0,1,2
    
    • 1
    • 2
    • 3

    3. 查看所有主题:

    [root@hadoop101 kafka_2.12-2.2.1]# bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --list
    __consumer_offsets
    test
    test1
    
    • 1
    • 2
    • 3
    • 4
    2. 生产者生产消息

    在这里插入图片描述

    [root@hadoop101 kafka_2.12-2.2.1]# bin/kafka-console-producer.sh --broker-list hadoop101:9092 --topic test1
    
    • 1

    在这里插入图片描述

    3. 消费者消费消息

    在这里插入图片描述

    [root@hadoop101 kafka_2.12-2.2.1]# bin/kafka-console-consumer.sh --bootstrap-server hadoop101:9092 --topic test1
    
    • 1

    在这里插入图片描述

  • 相关阅读:
    MySQL进阶——锁
    高等数学(第七版)同济大学 习题2-1 个人解答
    SpringBoot+Vue项目中session改变的问题解决
    Altium Designer 常见问题解答
    ShuffleNetv2论文详解
    [资源推荐]langchain、LLM相关
    CANape导出标定数据Hex/S19等二进制文件
    [附源码]计算机毕业设计springboot网上书城网站
    SQL基础理论篇(六):多表的连接方式
    视野修炼-技术周刊第57期
  • 原文地址:https://blog.csdn.net/qq_42764468/article/details/128064714