• 大数据-玩转数据-Flink 容错机制


    一、概述

    分布式架构中,当某个节点出现故障,其他节点基本不受影响。在 Flink 中,有一套完整的容错机制,最重要就是检查点(checkpoint)。

    二、检查点(Checkpoint)

    在流处理中,我们可以用存档读档的思路,把之前的计算结果做个保存,这样重启之后就可以继续处理新数据、而不需要重新计算了。所以我们最终的选择,就是将之前某个时间点所有的状态保存下来,这份“存档”就是所谓的“检查点(checkpoint)。遇到故障重启的时候,我们可以从检查点中“读档”,恢复出之前的状态,这样就可以回到当时保存的一刻接着处理数据了。checkpoint机制是Flink可靠性的基石,可以保证Flink集群在某个算子因为某些原因(如 异常退出)出现故障时,能够将整个应用流图的状态恢复到故障之前的某一状态,保证应用流图状态的一致性。

    三、检查点快照的实现算法

    1、简单算法:暂停应用,然后开始做检查点, 再重新恢复应用 。
    2、Flink的改进Checkpoint算法. Flink的checkpoint机制原理自"Chandy-Lamport algorithm"算法(分布式快照算)的一种变体: 异步 barrier 快照(asynchronous barrier snapshotting)每个需要checkpoint的应用在启动时,Flink的JobManager为其创建一个 CheckpointCoordinator,CheckpointCoordinator全权负责本应用的快照制作。

    重要概念:流的barrier
    流的barrier是Flink的Checkpoint中的一个核心概念. 多个barrier被插入到数据流中, 然后作为数据流的一部分随着数据流动(有点类似于Watermark)。这些barrier不会跨越流中的数据。每个barrier会把数据流分成两部分: 一部分数据进入当前的快照 , 另一部分数据进入下一个快照 。每个barrier携带着快照的id。barrier 不会暂停数据的流动, 所以非常轻量级。 在流中,同一时间可以有来源于多个不同快照的多个barrier, 这个意味着可以并发的出现不同的快照。

    Flink的检查点制作过程
    1、Checkpoint Coordinator 向所有 source 节点 trigger Checkpoint,然后Source Task会在数据流中安插CheckPoint barrier;

    2、source 节点向下游广播 barrier,这个 barrier 就是实现 Chandy-Lamport 分布式快照算法的核心,下游的 task 只有收到所有进来的 barrier 才会执行相应的 Checkpoint(barrier对齐, 但是新版本有一种新的barrier);

    3、当 task 完成 state checkpoint后,会将备份数据的地址(state handle)通知给 Checkpoint coordinator;

    4、下游的 sink 节点收集齐上游两个 input 的 barrier 之后,会执行本地快照;

    5、同样的,sink 节点在完成自己的 Checkpoint 之后,会将 state handle 返回通知 Coordinator;

    6、最后,当 Checkpoint coordinator 收集齐所有 task 的 state handle,就认为这一次的 Checkpoint 全局完成了,向持久化存储中再备份一个 Checkpoint meta 文件。

    严格一次语义: barrier对齐

    在多并行度下, 如果要实现严格一次, 则要执行barrier对齐。
    当 job graph 中的每个 operator 接收到 barriers 时,它就会记录下其状态。拥有两个输入流的 Operators(例如 CoProcessFunction)会执行 barrier 对齐(barrier alignment) 以便当前快照能够包含消费两个输入流 barrier 之前(但不超过)的所有 events 而产生的状态。

    1、当operator收到数字流的barrier n时, 它就不能处理(但是可以接收)来自该流的任何数据记录,直到它从字母流所有输入接收到 barrier n 为止。否则,它会混合属于快照 n 的记录和属于快照 n + 1 的记录;

    2、接收到 barrier n 的流(数字流)暂时被搁置。从这些流接收的记录入输入缓冲区, 不会被处理;

    3、 Checkpoint barrier n之后的数据 123已结到达了算子, 存入到输入缓冲区没有被处理, 只有等到字母流的Checkpoint barrier n到达之后才会开始处理;

    一旦最后所有输入流都接收到 barrier n,Operator 就会把缓冲区中 pending 的输出数据发出去,然后把 CheckPoint barrier n 接着往下游发送。这里还会对自身进行快照。

    至少一次语义: barrier不对齐

    假设不对齐, 在字母流的Checkpoint barrier n到达前, 已经处理了1 2 3. 等字母流Checkpoint barrier n到达之后, 会做Checkpoint n. 假设这个时候程序异常错误了, 则重新启动的时候会Checkpoint n之后的数据重新计算. 1 2 3 会被再次被计算, 所以123出现了重复计算。

    savepoint原理

    1、Flink 还提供了可以自定义的镜像保存功能,就是保存(savepoints)
    2、原则上,创建保存点使用的算法与检查点完全相同,因此保存点可以认为就是具有一些额外元数据的检查点
    3、Flink不会自动创建保存点,因此用户(或外部调度程序)必须明确地触发创建操作
    4、保存点是一个强大的功能。除了故障恢复外,保存点可以用于:有计划的手动备份,更新应用程序,版本迁移,暂停和重启应用,等等。

    四、Kafka+Flink+Kafka 实现端到端严格一次

    我们知道,端到端的状态一致性的实现,需要每一个组件都实现,对于Flink + Kafka的数据管道系统(Kafka进、Kafka出)而言,各组件怎样保证exactly-once语义呢?

    1. 内部 —— 利用checkpoint机制,把状态存盘,发生故障的时候可以恢复,保证部的状态一致性
    2. source —— kafka consumer作为source,可以将偏移量保存下来,如果后续任务出现了故障,恢复的时候可以由连接器重置偏移量,重新消费数据,保证一致性
    3. sink —— kafka producer作为sink,采用两阶段提交 sink,需要实现一个 TwoPhaseCommitSinkFunction
      内部的checkpoint机制我们已经有了了解,那source和sink具体又是怎样运行的呢?接下来我们逐步做一个分析。

    具体的两阶段提交步骤总结如下:

    1. 某个checkpoint的第一条数据来了之后,开启一个 kafka 的事务(transaction),正常写入 kafka分区日志但标记为未提交,这就是“预提交”(第一阶段提交)
    2. jobmanager 触发 checkpoint 操作,barrier 从 source 开始向下传递,遇到 barrier
      的算子状态后端会进行相应进行checkpoint,并通jobmanagerr
    3. sink 连接器收到 barrier,保存当前状态,存入 checkpoint,通知
      jobmanager,并开启下一阶段的事务,用于提交下个检查点的数据
    4. jobmanager 收到所有任务的通知,发出确认信息,表示 checkpoint 完成
    5. sink 任务收到 jobmanager 的确认信息,正式提交这段时间的数据(第二阶段提交)
    6. 外部kafka关闭事务,提交的数据可以正常消费了

    在这里插入图片描述

    五、代码中测试Checkpoint

    package com.lyh.flink10;
    
    import com.lyh.bean.WaterSensor;
    import org.apache.flink.api.common
    • 1
    • 2
    • 3
  • 相关阅读:
    Java中的IO流
    flutter实践:慎用Expanded
    Java 得到当前时间距离第二天凌晨还剩多少秒
    [附源码]计算机毕业设计springboot体育器材及场地管理系统
    【数据结构】—— 单调栈
    虚拟内存 & I/O & 零拷贝总结
    Linux脚本练习之script088-netstat练习之输出每个IP的连接数
    高温持续,三峡水库向长江中下游补水5亿立方米
    项目(模块1:用户登陆流程分析)
    请求分页中的内存分配
  • 原文地址:https://blog.csdn.net/s_unbo/article/details/132791878