• 本地搭建kafka并用java实现发送消费消息


    1、下载kafka的jar包文件

    https://www.apache.org/dyn/closer.cgi?path=/kafka/3.1.0/kafka_2.12-3.1.0.tgz
    
    • 1

    请添加图片描述

    2、下载完成直接操作命令启动

    	1、打开新的terminal(终端)窗口,进入kafka的bin目录 启动zk
    		 ./zookeeper-server-start.sh ../config/zookeeper.properties
    	2、新开命令行
    		启动kafka,进入bin目录:./kafka-server-start.sh ../config/server.properties &
    
    • 1
    • 2
    • 3
    • 4

    3、测试

    		1、进入bin目录 ,创建主题
     			./kafka-topics.sh —create —bootstrap-server localhost:9092 —replication-factor 1 —partition 1 —topic kafkaTest 
     		2、启动生产者
    			./kafka-console-producer.sh --broker-list localhost:9092 --topic kafkaTest 
    		3、启动消费者
    			./kafka-console-consumer.sh --bootstrap-server qf01:9092 --topic test --from-beginning
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    4、展示

    生产者:
    请添加图片描述
    发送kafka的测试,消费者直接消费
    请添加图片描述

    5、java操作kafka完成消费

    需要启动上面的操作 启动kafka 建立主题,启动zk
    首先下载一个可视化软件
    mac版本

    https://www.kafkatool.com/download.html
    
    • 1

    5.1 导入依赖

    
            
                org.apache.kafka
                kafka-clients
                2.4.1
            
    
            
            
                org.apache.commons
                commons-io
                1.3.2
            
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14

    5.2 开发生产者

    调用send发送1-100消息到指定Topic test

    public class KafkaProducerTest {
        public static void main(String[] args) {
            // 1. 创建用于连接Kafka的Properties配置
            Properties props = new Properties();
            props.put("bootstrap.servers", "server1:9092");
            props.put("acks", "all");
            props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
            props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
    
            // 2. 创建一个生产者对象KafkaProducer
            KafkaProducer producer = new KafkaProducer(props);
    
            // 3. 调用send发送1-100消息到指定Topic test
            for (int i = 0; i < 100; ++i) {
                try {
                    // 获取返回值Future,该对象封装了返回值
                    Future future = producer.send(new ProducerRecord("test", null, i + ""));
                    // 调用一个Future.get()方法等待响应
                    future.get();
                } catch (InterruptedException e) {
                    e.printStackTrace();
                } catch (ExecutionException e) {
                    e.printStackTrace();
                }
            }
    
            // 5. 关闭生产者
            producer.close();
    
        }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31

    5.3 示例

    请添加图片描述

    5.4 开发消费者

    public class KafkaConsumerTest {
    
        /**
         * @param args
         * @throws InterruptedException 
         */
        public static void main(String[] args) throws InterruptedException {
            Properties props = new Properties();
            props.setProperty("bootstrap.servers", "localhost:9092");
            props.setProperty("group.id", "test");
            // 自动提交offset
            props.setProperty("enable.auto.commit", "true");
            // 自动提交offset的时间间隔
            props.setProperty("auto.commit.interval.ms", "1000");
            // 拉取的key、value数据的
            props.setProperty("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
            props.setProperty("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
    
            // 2.创建Kafka消费者
            KafkaConsumer kafkaConsumer = new KafkaConsumer<>(props);
    
            // 3. 订阅要消费的主题
            // 指定消费者从哪个topic中拉取数据
            kafkaConsumer.subscribe(Arrays.asList("test"));
    
            // 4.使用一个while循环,不断从Kafka的topic中拉取消息
            while (true) {
                // Kafka的消费者一次拉取一批的数据
                ConsumerRecords consumerRecords = kafkaConsumer.poll(5);
                // 5.将将记录(record)的offset、key、value都打印出来
                for (ConsumerRecord consumerRecord : consumerRecords) {
                    // 主题
                    String topic = consumerRecord.topic();
                    // offset:这条消息处于Kafka分区中的哪个位置
                    long offset = consumerRecord.offset();
                    // key\value
                    String key = consumerRecord.key();
                    String value = consumerRecord.value();
    
                    System.out.println("topic: " + topic + " offset:" + offset + " key:" + key + " value:" + value);
                }
                Thread.sleep(1000);
            }
        }
    
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46

    5.5 启动两个类(部分截图)

    请添加图片描述

  • 相关阅读:
    掌握Golang匿名函数
    浅谈Spring中的事务【Transactional】
    E. Beautiful Subarrays(Trie维护前缀异或和)
    231003-四步MacOS-iPadOS设置无线竖屏随航SideCar
    Java面试:Spring框架功能分为哪些模块?
    【微信小程序】微信小程序自定义标题跟随滚动
    单商户商城系统功能拆解20—售后订单
    得到指定的偏移日期,遇到节假日就跳过,重新偏移定位日期
    springboot基于SpringBoot的冬奥会科普平台springboot21
    北漂跳槽(跳坑)经历总结
  • 原文地址:https://blog.csdn.net/qq_36151389/article/details/133274411