• kafka入门教程


    在这篇教程中,我们将探索如何在Java代码中使用Apache Kafka,一个分布式流处理平台,它能够处理高吞吐量的数据。Kafka广泛用于构建实时流数据管道和应用程序,它允许数据从生产者流向消费者。我们将涵盖基本概念,包括设置Kafka环境,生产者和消费者的创建和配置。

    前提条件
    已安装Java 8或更高版本。
    已安装Apache Kafka和ZooKeeper。你可以从Kafka官网下载并按照快速开始指南进行安装。

    第一步:设置Kafka环境

    在开始编写Java代码之前,请确保你的Kafka服务器正在运行。如果你是在本地安装的Kafka,可以通过以下命令启动ZooKeeper和Kafka服务器:

    启动ZooKeeper:

    bin/zookeeper-server-start.sh config/zookeeper.properties
    
    • 1

    启动Kafka服务器:

    bin/kafka-server-start.sh config/server.properties
    
    • 1

    第二步:添加Kafka依赖项

    在你的Java项目中,你需要添加Kafka客户端的依赖项。如果你使用的是Maven,可以在pom.xml文件中添加以下依赖:

    <dependencies>
        <dependency>
            <groupId>org.apache.kafkagroupId>
            <artifactId>kafka-clientsartifactId>
            <version>2.8.0version>
        dependency>
    dependencies>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    第三步:创建Kafka生产者

    Kafka生产者负责将消息发布到指定的主题。下面的代码展示了如何创建一个简单的Kafka生产者并发送消息。

    import org.apache.kafka.clients.producer.KafkaProducer;
    import org.apache.kafka.clients.producer.ProducerRecord;
    import org.apache.kafka.clients.producer.ProducerConfig;
    import org.apache.kafka.common.serialization.StringSerializer;
    
    import java.util.Properties;
    
    public class SimpleProducer {
        public static void main(String[] args) {
            String bootstrapServers = "127.0.0.1:9092";
            String topicName = "test-topic";
    
            Properties properties = new Properties();
            properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers);
            properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
            properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
    
            try (KafkaProducer<String, String> producer = new KafkaProducer<>(properties)) {
                String messageValue = "Hello, Kafka!";
                ProducerRecord<String, String> record = new ProducerRecord<>(topicName, messageValue);
                producer.send(record);
                System.out.println("Message sent successfully");
            } catch (Exception e) {
                e.printStackTrace();
            }
        }
    }
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28

    第四步:创建Kafka消费者

    Kafka消费者用于从指定的主题读取消息。以下代码展示了如何创建一个简单的Kafka消费者并读取消息。

    import org.apache.kafka.clients.consumer.KafkaConsumer;
    import org.apache.kafka.clients.consumer.ConsumerConfig;
    import org.apache.kafka.clients.consumer.ConsumerRecords;
    import org.apache.kafka.clients.consumer.ConsumerRecord;
    import org.apache.kafka.common.serialization.StringDeserializer;
    
    import java.time.Duration;
    import java.util.Collections;
    import java.util.Properties;
    
    public class SimpleConsumer {
        public static void main(String[] args) {
            String bootstrapServers = "127.0.0.1:9092";
            String groupId = "test-group";
            String topicName = "test-topic";
    
            Properties properties = new Properties();
            properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers);
            properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
            properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
            properties.put(ConsumerConfig.GROUP_ID_CONFIG, groupId);
            properties.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
    
            try (KafkaConsumer<String, String> consumer = new KafkaConsumer<>(properties)) {
                consumer.subscribe(Collections.singletonList(topicName));
    
                while (true) {
                    ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));
                    for (ConsumerRecord<String, String> record : records) {
                        System.out.printf("Received new record: key = %s, value = %s, topic = %s, partition = %s, offset = %s%n",
                                record.key(), record.value(), record.topic(), record.partition(), record.offset());
                    }
                }
            } catch (Exception e) {
                e.printStackTrace();
            }
        }
    }
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39

    关键点总结
    生产者和消费者是Kafka数据流的基本组件。
    生产者通过KafkaProducer发送消息到指定的主题。
    消费者通过KafkaConsumer从订阅的主题中读取消息。
    指定序列化器和反序列化器对于生产者和消费者来说很重要,以确保消息的正确编码和解码。
    以上就是在Java中使用Kafka的基本入门教程。希望这能帮助你开始在Java应用程序中集成Kafka。

  • 相关阅读:
    两种数据库MySQL 与 PostgresSQL 的 全面比较
    python 微信发送消息
    Vue-video-player下载失败(npm i 报错)
    elasticsearch docker 安装
    计算机毕业设计(附源码)python中小型医院综合管理系统
    内网信息收集
    C++ 多态
    SpringBoot 拦截器的使用
    离线方式安装高可用RKE2 (版本: v1.22.13+rke2r1)记录
    Hadoop发展史
  • 原文地址:https://blog.csdn.net/guoYLong/article/details/136656225