• 【小爱学大数据】FlinkKafkaConsumer


    今天小爱学习FlinkKafkaConsumer。

    Apache Flink 是一个流处理和批处理的开源框架,它提供了数据流程序设计模型,以及运行环境和分布式执行引擎。FlinkKafkaConsumer 是 Flink 提供的一个 Kafka 消费者,用于从 Kafka 中消费数据。

    下面是一个使用 FlinkKafkaConsumer 实例的基础示例:

    1. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    2. import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer;
    3. import java.util.Properties;
    4. public class FlinkKafkaConsumerExample {
    5. public static void main(String[] args) throws Exception {
    6. // 创建流处理环境
    7. final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    8. // 设置 Kafka 参数
    9. Properties properties = new Properties();
    10. properties.setProperty("bootstrap.servers", "localhost:9092");
    11. properties.setProperty("group.id", "test");
    12. // 创建一个新的 FlinkKafkaConsumer
    13. FlinkKafkaConsumer myConsumer = new FlinkKafkaConsumer<>(properties, new SimpleStringSchema(), "test-topic");
    14. // 从 Kafka 主题中读取数据,并添加到 Flink 数据流中
    15. DataStream stream = env.addSource(myConsumer);
    16. // 处理数据...
    17. }}

    在这个例子中,我们首先创建了一个 StreamExecutionEnvironment,这是 Flink 程序的入口点。

    这里设置了一些 Kafka 参数,并创建了一个新的 FlinkKafkaConsumer。

    这个消费者使用 Kafka 的 bootstrap servers 和 group id,以及一个特定的 topic(在此例中为 "test-topic")。

    使用这个消费者创建一个 DataStream,这个 DataStream 可以被进一步处理或输出。

    如果想看看这个流数据是怎样的,可以打印出来看看。

    1. DataStream<String> stream = env.addSource(myConsumer);
    2. stream.print(); // 将数据打印到标准输出

    需要注意的是,这些方法将立即打印流中的所有数据,这可能会在程序运行时产生大量的输出。

    如果你只想查看部分数据,你可能需要使用其他方法,例如使用 take() 操作来限制输出的数据量。例如:

    1. DataStream<String> stream = env.addSource(myConsumer);
    2. List<String> data = stream.take(10).collect(); // 获取前10个元素
    3. for (String item : data) {
    4. System.out.println(item); // 打印数据
    5. }

    --END--

  • 相关阅读:
    linux时区相关
    maven
    HDLBits-Fsm1
    聊一聊我对Restful理解
    SSM框架--Spring配置文件
    C++ Reference: Standard C++ Library reference: C Library: cmath: tanh
    RIP动态路由配置
    设备搭建(waf、蜜罐、ids和ips)
    PAM从入门到精通(十七)
    数据结构【二叉搜索树、leetcode刷题】
  • 原文地址:https://blog.csdn.net/X8i0Bev/article/details/134498562