• Flink窗口


    窗口(Window)

    1. package com.atguigu.window;
    2. import com.atguigu.bean.WaterSensor;
    3. import com.atguigu.functions.WaterSensorMapFunction;
    4. import org.apache.flink.streaming.api.datastream.KeyedStream;
    5. import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
    6. import org.apache.flink.streaming.api.datastream.WindowedStream;
    7. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    8. import org.apache.flink.streaming.api.windowing.assigners.GlobalWindows;
    9. import org.apache.flink.streaming.api.windowing.assigners.ProcessingTimeSessionWindows;
    10. import org.apache.flink.streaming.api.windowing.assigners.SlidingProcessingTimeWindows;
    11. import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows;
    12. import org.apache.flink.streaming.api.windowing.time.Time;
    13. import org.apache.flink.streaming.api.windowing.windows.TimeWindow;
    14. /**
    15. * TODO
    16. *
    17. * @author cjp
    18. * @version 1.0
    19. */
    20. public class WindowApiDemo {
    21. public static void main(String[] args) throws Exception {
    22. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    23. env.setParallelism(1);
    24. SingleOutputStreamOperator sensorDS = env
    25. .socketTextStream("hadoop102", 7777)
    26. .map(new WaterSensorMapFunction());
    27. KeyedStream sensorKS = sensorDS.keyBy(sensor -> sensor.getId());
    28. // TODO 1. 指定 窗口分配器: 指定 用 哪一种窗口 --- 时间 or 计数? 滚动、滑动、会话?
    29. // 1.1 没有keyby的窗口: 窗口内的 所有数据 进入同一个 子任务,并行度只能为1
    30. // sensorDS.windowAll()
    31. // 1.2 有keyby的窗口: 每个key上都定义了一组窗口,各自独立地进行统计计算
    32. // 基于时间的
    33. // sensorKS.window(TumblingProcessingTimeWindows.of(Time.seconds(10))) // 滚动窗口,窗口长度10s
    34. // sensorKS.window(SlidingProcessingTimeWindows.of(Time.seconds(10), Time.seconds(2))) // 滑动窗口,窗口长度10s,滑动步长2s
    35. // sensorKS.window(ProcessingTimeSessionWindows.withGap(Time.seconds(5))) // 会话窗口,超时间隔5s
    36. // 基于计数的
    37. // sensorKS.countWindow(5) // 滚动窗口,窗口长度=5个元素
    38. // sensorKS.countWindow(5,2) // 滑动窗口,窗口长度=5个元素,滑动步长=2个元素
    39. // sensorKS.window(GlobalWindows.create()) // 全局窗口,计数窗口的底层就是用的这个,需要自定义的时候才会用
    40. // TODO 2. 指定 窗口函数 : 窗口内数据的 计算逻辑
    41. WindowedStream sensorWS = sensorKS.window(TumblingProcessingTimeWindows.of(Time.seconds(10)));
    42. // 增量聚合: 来一条数据,计算一条数据,窗口触发的时候输出计算结果
    43. // sensorWS
    44. // .reduce()
    45. // .aggregate(, )
    46. // 全窗口函数:数据来了不计算,存起来,窗口触发的时候,计算并输出结果
    47. // sensorWS.process()
    48. env.execute();
    49. }
    50. }

    6.1.1 窗口的概念

    Flink是一种流式计算引擎,主要是来处理无界数据流的,数据源源不断、无穷无尽。想要更加方便高效地处理无界流,一种方式就是将无限数据切割成有限的“数据块”进行处理,这就是所谓的“窗口”(Window)。

    注意:Flink中窗口并不是静态准备好的,而是动态创建——当有落在这个窗口区间范围的数据达到时,才创建对应的窗口。另外,这里我们认为到达窗口结束时间时,窗口就触发计算并关闭,事实上“触发计算”和“窗口关闭”两个行为也可以分开,这部分内容我们会在后面详述。

    6.1.2 窗口的分类

    我们在上一节举的例子,其实是最为简单的一种时间窗口。在Flink中,窗口的应用非常灵活,我们可以使用各种不同类型的窗口来实现需求。接下来我们就从不同的角度,对Flink中内置的窗口做一个分类说明。

    1)按照驱动类型分

    2)按照窗口分配数据的规则分类

    根据分配数据的规则,窗口的具体实现可以分为4类:滚动窗口(Tumbling Window)、滑动窗口(Sliding Window)、会话窗口(Session Window),以及全局窗口(Global Window)。

     

     

     

     

    6.1.3 窗口API概览

    1)按键分区(Keyed)和非按键分区(Non-Keyed

    在定义窗口操作之前,首先需要确定,到底是基于按键分区(Keyed)的数据流KeyedStream来开窗,还是直接在没有按键分区的DataStream上开窗。也就是说,在调用窗口算子之前,是否有keyBy操作。

    (1)按键分区窗口(Keyed Windows)

    经过按键分区keyBy操作后,数据流会按照key被分为多条逻辑流(logical streams),这就是KeyedStream。基于KeyedStream进行窗口操作时,窗口计算会在多个并行子任务上同时执行。相同key的数据会被发送到同一个并行子任务,而窗口操作会基于每个key进行单独的处理。所以可以认为,每个key上都定义了一组窗口,各自独立地进行统计计算。

    在代码实现上,我们需要先对DataStream调用.keyBy()进行按键分区,然后再调用.window()定义窗口。

    stream.keyBy(...)

           .window(...)

    (2)非按键分区(Non-Keyed Windows)

    如果没有进行keyBy,那么原始的DataStream就不会分成多条逻辑流。这时窗口逻辑只能在一个任务(task)上执行,就相当于并行度变成了1。

    在代码中,直接基于DataStream调用.windowAll()定义窗口。

    stream.windowAll(...)

    注意:对于非按键分区的窗口操作手动调大窗口算子的并行度也是无效的,windowAll本身就是一个非并行的操作。

    2)代码中窗口API的调用

    窗口操作主要有两个部分:窗口分配器(Window Assigners)和窗口函数(Window Functions)。

    stream.keyBy()

           .window(<window assigner>)

           .aggregate(<window function>)

    其中.window()方法需要传入一个窗口分配器,它指明了窗口的类型;而后面的.aggregate()方法传入一个窗口函数作为参数,它用来定义窗口具体的处理逻辑。窗口分配器有各种形式,而窗口函数的调用方法也不只.aggregate()一种,我们接下来就详细展开讲解。

    6.1.4 窗口分配器

    定义窗口分配器(Window Assigners)是构建窗口算子的第一步,它的作用就是定义数据应该被“分配”到哪个窗口。所以可以说,窗口分配器其实就是在指定窗口的类型。

    窗口分配器最通用的定义方式,就是调用.window()方法。这个方法需要传入一个WindowAssigner作为参数,返回WindowedStream。如果是非按键分区窗口,那么直接调用.windowAll()方法,同样传入一个WindowAssigner,返回的是AllWindowedStream。

    窗口按照驱动类型可以分成时间窗口和计数窗口,而按照具体的分配规则,又有滚动窗口、滑动窗口、会话窗口、全局窗口四种。除去需要自定义的全局窗口外,其他常用的类型Flink中都给出了内置的分配器实现,我们可以方便地调用实现各种需求。

    6.1.4.1 时间窗口

    时间窗口是最常用的窗口类型,又可以细分为滚动、滑动和会话三种。

    1)滚动处理时间窗口

    窗口分配器由类TumblingProcessingTimeWindows提供,需要调用它的静态方法.of()。

    stream.keyBy(...)

           .window(TumblingProcessingTimeWindows.of(Time.seconds(5)))

           .aggregate(...)

    这里.of()方法需要传入一个Time类型的参数size,表示滚动窗口的大小,我们这里创建了一个长度为5秒的滚动窗口。

    另外,.of()还有一个重载方法,可以传入两个Time类型的参数:size和offset。第一个参数当然还是窗口大小,第二个参数则表示窗口起始点的偏移量。

    2)滑动处理时间窗口

    窗口分配器由类SlidingProcessingTimeWindows提供,同样需要调用它的静态方法.of()。

    stream.keyBy(...)

           .window(SlidingProcessingTimeWindows.of(Time.seconds(10)Time.seconds(5)))

           .aggregate(...)

    这里.of()方法需要传入两个Time类型的参数:size和slide,前者表示滑动窗口的大小,后者表示滑动窗口的滑动步长。我们这里创建了一个长度为10秒、滑动步长为5秒的滑动窗口。

    滑动窗口同样可以追加第三个参数,用于指定窗口起始点的偏移量,用法与滚动窗口完全一致。

    3)处理时间会话窗口

    窗口分配器由类ProcessingTimeSessionWindows提供,需要调用它的静态方法.withGap()或者.withDynamicGap()。

    stream.keyBy(...)

           .window(ProcessingTimeSessionWindows.withGap(Time.seconds(10)))

           .aggregate(...)

    这里.withGap()方法需要传入一个Time类型的参数size,表示会话的超时时间,也就是最小间隔session gap。我们这里创建了静态会话超时时间为10秒的会话窗口。

    另外,还可以调用withDynamicGap()方法定义session gap的动态提取逻辑。

    4)滚动事件时间窗口

    窗口分配器由类TumblingEventTimeWindows提供,用法与滚动处理事件窗口完全一致。

    stream.keyBy(...)

           .window(TumblingEventTimeWindows.of(Time.seconds(5)))

           .aggregate(...)

    5)滑动事件时间窗口

    窗口分配器由类SlidingEventTimeWindows提供,用法与滑动处理事件窗口完全一致。

    stream.keyBy(...)

           .window(SlidingEventTimeWindows.of(Time.seconds(10)Time.seconds(5)))

           .aggregate(...)

    6)事件时间会话窗口

    窗口分配器由类EventTimeSessionWindows提供,用法与处理事件会话窗口完全一致。

    stream.keyBy(...)

           .window(EventTimeSessionWindows.withGap(Time.seconds(10)))

           .aggregate(...)

    6.1.4.2 计数窗口

    计数窗口概念非常简单,本身底层是基于全局窗口(Global Window)实现的。Flink为我们提供了非常方便的接口:直接调用.countWindow()方法。根据分配规则的不同,又可以分为滚动计数窗口和滑动计数窗口两类,下面我们就来看它们的具体实现。

    1)滚动计数窗口

    滚动计数窗口只需要传入一个长整型的参数size,表示窗口的大小。

    stream.keyBy(...)

           .countWindow(10)

    我们定义了一个长度为10的滚动计数窗口,当窗口中元素数量达到10的时候,就会触发计算执行并关闭窗口。

    2)滑动计数窗口

    与滚动计数窗口类似,不过需要在.countWindow()调用时传入两个参数:size和slide,前者表示窗口大小,后者表示滑动步长。

    stream.keyBy(...)

           .countWindow(103)

    我们定义了一个长度为10、滑动步长为3的滑动计数窗口。每个窗口统计10个数据,每隔3个数据就统计输出一次结果。

    3)全局窗口

    全局窗口是计数窗口的底层实现,一般在需要自定义窗口时使用。它的定义同样是直接调用.window(),分配器由GlobalWindows类提供。

    stream.keyBy(...)

           .window(GlobalWindows.create());

    需要注意使用全局窗口,必须自行定义触发器才能实现窗口计算,否则起不到任何作用。

     6.1.5 窗口函数

    窗口函数定义了要对窗口中收集的数据做的计算操作,根据处理的方式可以分为两类:增量聚合函数和全窗口函数。下面我们来进行分别讲解。

    6.1.5.1 增量聚合函数(ReduceFunction / AggregateFunction)

    窗口将数据收集起来,最基本的处理操作当然就是进行聚合。我们可以每来一个数据就在之前结果上聚合一次,这就是“增量聚合”。

    典型的增量聚合函数有两个:ReduceFunction和AggregateFunction。

    1)归约函数(ReduceFunction

    代码示例:

    1. package com.atguigu.window;
    2. import com.atguigu.bean.WaterSensor;
    3. import com.atguigu.functions.WaterSensorMapFunction;
    4. import org.apache.flink.api.common.functions.ReduceFunction;
    5. import org.apache.flink.streaming.api.datastream.KeyedStream;
    6. import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
    7. import org.apache.flink.streaming.api.datastream.WindowedStream;
    8. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    9. import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows;
    10. import org.apache.flink.streaming.api.windowing.time.Time;
    11. import org.apache.flink.streaming.api.windowing.windows.TimeWindow;
    12. /**
    13. * TODO
    14. *
    15. * @author cjp
    16. * @version 1.0
    17. */
    18. public class WindowReduceDemo {
    19. public static void main(String[] args) throws Exception {
    20. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    21. env.setParallelism(1);
    22. SingleOutputStreamOperator sensorDS = env
    23. .socketTextStream("hadoop102", 7777)
    24. .map(new WaterSensorMapFunction());
    25. KeyedStream sensorKS = sensorDS.keyBy(sensor -> sensor.getId());
    26. // 1. 窗口分配器
    27. WindowedStream sensorWS = sensorKS.window(TumblingProcessingTimeWindows.of(Time.seconds(10)));
    28. // 2. 窗口函数: 增量聚合 Reduce
    29. /**
    30. * 窗口的reduce:
    31. * 1、相同key的第一条数据来的时候,不会调用reduce方法
    32. * 2、增量聚合: 来一条数据,就会计算一次,但是不会输出
    33. * 3、在窗口触发的时候,才会输出窗口的最终计算结果
    34. */
    35. SingleOutputStreamOperator reduce = sensorWS.reduce(
    36. new ReduceFunction() {
    37. @Override
    38. public WaterSensor reduce(WaterSensor value1, WaterSensor value2) throws Exception {
    39. System.out.println("调用reduce方法,value1=" + value1 + ",value2=" + value2);
    40. return new WaterSensor(value1.getId(), value2.getTs(), value1.getVc() + value2.getVc());
    41. }
    42. }
    43. );
    44. reduce.print();
    45. env.execute();
    46. }
    47. }

     ruduce 第一条数据不会打印, 每个窗口的第一条数据也不打印

     

     

    2)聚合函数(AggregateFunction

    ReduceFunction可以解决大多数归约聚合的问题,但是这个接口有一个限制,就是聚合状态的类型、输出结果的类型都必须和输入数据类型一样。

    Flink Window API中的aggregate就突破了这个限制,可以定义更加灵活的窗口聚合操作。这个方法需要传入一个AggregateFunction的实现类作为参数。

    AggregateFunction可以看作是ReduceFunction的通用版本,这里有三种类型:输入类型(IN)、累加器类型(ACC)和输出类型(OUT)。输入类型IN就是输入流中元素的数据类型;累加器类型ACC则是我们进行聚合的中间状态类型;而输出类型当然就是最终计算结果的类型了。

    接口中有四个方法:

    1. createAccumulator():创建一个累加器,这就是为聚合创建了一个初始状态,每个聚合任务只会调用一次。
    2. add():将输入的元素添加到累加器中。
    3. getResult():从累加器中提取聚合的输出结果。
    4. merge():合并两个累加器,并将合并后的状态作为一个累加器返回。

    所以可以看到,AggregateFunction的工作原理是:首先调用createAccumulator()为任务初始化一个状态(累加器);而后每来一个数据就调用一次add()方法,对数据进行聚合,得到的结果保存在状态中;等到了窗口需要输出时,再调用getResult()方法得到计算结果。很明显,与ReduceFunction相同,AggregateFunction也是增量式的聚合;而由于输入、中间状态、输出的类型可以不同,使得应用更加灵活方便。

    代码实现如下:

    1. package com.atguigu.window;
    2. import com.atguigu.bean.WaterSensor;
    3. import com.atguigu.functions.WaterSensorMapFunction;
    4. import org.apache.flink.api.common.functions.AggregateFunction;
    5. import org.apache.flink.api.common.functions.ReduceFunction;
    6. import org.apache.flink.streaming.api.datastream.KeyedStream;
    7. import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
    8. import org.apache.flink.streaming.api.datastream.WindowedStream;
    9. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    10. import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows;
    11. import org.apache.flink.streaming.api.windowing.time.Time;
    12. import org.apache.flink.streaming.api.windowing.windows.TimeWindow;
    13. /**
    14. * TODO
    15. *
    16. * @author cjp
    17. * @version 1.0
    18. */
    19. public class WindowAggregateDemo {
    20. public static void main(String[] args) throws Exception {
    21. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    22. env.setParallelism(1);
    23. SingleOutputStreamOperator sensorDS = env
    24. .socketTextStream("hadoop102", 7777)
    25. .map(new WaterSensorMapFunction());
    26. KeyedStream sensorKS = sensorDS.keyBy(sensor -> sensor.getId());
    27. // 1. 窗口分配器
    28. WindowedStream sensorWS = sensorKS.window(TumblingProcessingTimeWindows.of(Time.seconds(10)));
    29. // 2. 窗口函数: 增量聚合 Aggregate
    30. /**
    31. * 1、属于本窗口的第一条数据来,创建窗口,创建累加器
    32. * 2、增量聚合: 来一条计算一条, 调用一次add方法
    33. * 3、窗口输出时调用一次getresult方法
    34. * 4、输入、中间累加器、输出 类型可以不一样,非常灵活
    35. */
    36. SingleOutputStreamOperator aggregate = sensorWS.aggregate(
    37. /**
    38. * 第一个类型: 输入数据的类型
    39. * 第二个类型: 累加器的类型,存储的中间计算结果的类型
    40. * 第三个类型: 输出的类型
    41. */
    42. new AggregateFunction() {
    43. /**
    44. * 创建累加器,初始化累加器
    45. * @return
    46. */
    47. @Override
    48. public Integer createAccumulator() {
    49. System.out.println("创建累加器");
    50. return 0;
    51. }
    52. /**
    53. * 聚合逻辑
    54. * @param value
    55. * @param accumulator
    56. * @return
    57. */
    58. @Override
    59. public Integer add(WaterSensor value, Integer accumulator) {
    60. System.out.println("调用add方法,value="+value);
    61. return accumulator + value.getVc();
    62. }
    63. /**
    64. * 获取最终结果,窗口触发时输出
    65. * @param accumulator
    66. * @return
    67. */
    68. @Override
    69. public String getResult(Integer accumulator) {
    70. System.out.println("调用getResult方法");
    71. return accumulator.toString();
    72. }
    73. @Override
    74. public Integer merge(Integer a, Integer b) {
    75. // 只有会话窗口才会用到
    76. System.out.println("调用merge方法");
    77. return null;
    78. }
    79. }
    80. );
    81. aggregate.print();
    82. env.execute();
    83. }
    84. }

    另外,Flink也为窗口的聚合提供了一系列预定义的简单聚合方法,可以直接基于WindowedStream调用。主要包括.sum()/max()/maxBy()/min()/minBy(),与KeyedStream的简单聚合非常相似。它们的底层,其实都是通过AggregateFunction来实现的。

    6.1.5.2 全窗口函数(full window functions)

    有些场景下,我们要做的计算必须基于全部的数据才有效,这时做增量聚合就没什么意义了;另外,输出的结果有可能要包含上下文中的一些信息(比如窗口的起始时间),这是增量聚合函数做不到的。

    所以,我们还需要有更丰富的窗口计算方式。窗口操作中的另一大类就是全窗口函数。与增量聚合函数不同,全窗口函数需要先收集窗口中的数据,并在内部缓存起来,等到窗口要输出结果的时候再取出数据进行计算。

    在Flink中,全窗口函数也有两种:WindowFunction和ProcessWindowFunction。

    1)窗口函数(WindowFunction

    WindowFunction字面上就是“窗口函数”,它其实是老版本的通用窗口函数接口。我们可以基于WindowedStream调用.apply()方法,传入一个WindowFunction的实现类。

    stream

        .keyBy()

        .window()

        .apply(new MyWindowFunction());

    这个类中可以获取到包含窗口所有数据的可迭代集合(Iterable),还可以拿到窗口(Window)本身的信息。

    不过WindowFunction能提供的上下文信息较少,也没有更高级的功能。事实上,它的作用可以被ProcessWindowFunction全覆盖,所以之后可能会逐渐弃用

    2)处理窗口函数(ProcessWindowFunction

    ProcessWindowFunction是Window API中最底层的通用窗口函数接口。之所以说它“最底层”,是因为除了可以拿到窗口中的所有数据之外,ProcessWindowFunction还可以获取到一个“上下文对象”(Context)。这个上下文对象非常强大,不仅能够获取窗口信息,还可以访问当前的时间和状态信息。这里的时间就包括了处理时间(processing time)和事件时间水位线(event time watermark)。这就使得ProcessWindowFunction更加灵活、功能更加丰富,其实就是一个增强版的WindowFunction。

    事实上,ProcessWindowFunction是Flink底层API——处理函数(process function)中的一员,关于处理函数我们会在后续章节展开讲解。

    代码实现如下:

    1. package com.atguigu.window;
    2. import com.atguigu.bean.WaterSensor;
    3. import com.atguigu.functions.WaterSensorMapFunction;
    4. import org.apache.commons.lang3.time.DateFormatUtils;
    5. import org.apache.flink.api.common.functions.AggregateFunction;
    6. import org.apache.flink.streaming.api.datastream.KeyedStream;
    7. import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
    8. import org.apache.flink.streaming.api.datastream.WindowedStream;
    9. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    10. import org.apache.flink.streaming.api.functions.windowing.ProcessWindowFunction;
    11. import org.apache.flink.streaming.api.functions.windowing.WindowFunction;
    12. import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows;
    13. import org.apache.flink.streaming.api.windowing.time.Time;
    14. import org.apache.flink.streaming.api.windowing.windows.TimeWindow;
    15. import org.apache.flink.util.Collector;
    16. /**
    17. * TODO
    18. *
    19. * @author cjp
    20. * @version 1.0
    21. */
    22. public class WindowProcessDemo {
    23. public static void main(String[] args) throws Exception {
    24. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    25. env.setParallelism(1);
    26. SingleOutputStreamOperator sensorDS = env
    27. .socketTextStream("hadoop102", 7777)
    28. .map(new WaterSensorMapFunction());
    29. KeyedStream sensorKS = sensorDS.keyBy(sensor -> sensor.getId());
    30. // 1. 窗口分配器
    31. WindowedStream sensorWS = sensorKS.window(TumblingProcessingTimeWindows.of(Time.seconds(10)));
    32. // 老写法
    33. // sensorWS
    34. // .apply(
    35. // new WindowFunction() {
    36. // /**
    37. // *
    38. // * @param s 分组的key
    39. // * @param window 窗口对象
    40. // * @param input 存的数据
    41. // * @param out 采集器
    42. // * @throws Exception
    43. // */
    44. // @Override
    45. // public void apply(String s, TimeWindow window, Iterable input, Collector out) throws Exception {
    46. //
    47. // }
    48. // }
    49. // )
    50. SingleOutputStreamOperator process = sensorWS
    51. .process(
    52. new ProcessWindowFunction() {
    53. /**
    54. * 全窗口函数计算逻辑: 窗口触发时才会调用一次,统一计算窗口的所有数据
    55. * @param s 分组的key
    56. * @param context 上下文
    57. * @param elements 存的数据
    58. * @param out 采集器
    59. * @throws Exception
    60. */
    61. @Override
    62. public void process(String s, Context context, Iterable elements, Collector out) throws Exception {
    63. // 上下文可以拿到window对象,还有其他东西:侧输出流 等等
    64. long startTs = context.window().getStart();
    65. long endTs = context.window().getEnd();
    66. String windowStart = DateFormatUtils.format(startTs, "yyyy-MM-dd HH:mm:ss.SSS");
    67. String windowEnd = DateFormatUtils.format(endTs, "yyyy-MM-dd HH:mm:ss.SSS");
    68. long count = elements.spliterator().estimateSize();
    69. out.collect("key=" + s + "的窗口[" + windowStart + "," + windowEnd + ")包含" + count + "条数据===>" + elements.toString());
    70. }
    71. }
    72. );
    73. process.print();
    74. env.execute();
    75. }
    76. }
    6.1.5.3 增量聚合和全窗口函数的结合使用

    在实际应用中,我们往往希望兼具这两者的优点,把它们结合在一起使用。Flink的Window API就给我们实现了这样的用法。

    我们之前在调用WindowedStream的.reduce()和.aggregate()方法时,只是简单地直接传入了一个ReduceFunction或AggregateFunction进行增量聚合。除此之外,其实还可以传入第二个参数:一个全窗口函数,可以是WindowFunction或者ProcessWindowFunction。

    // ReduceFunctionWindowFunction结合

    public SingleOutputStreamOperator reduce(

            ReduceFunction reduceFunctionWindowFunctionRKW> function)

    // ReduceFunctionProcessWindowFunction结合

    public SingleOutputStreamOperator reduce(

            ReduceFunction reduceFunctionProcessWindowFunctionRKW> function)

    // AggregateFunctionWindowFunction结合

    public VR> SingleOutputStreamOperator aggregate(

            AggregateFunctionACCV> aggFunctionWindowFunctionRKW> windowFunction)

    // AggregateFunctionProcessWindowFunction结合

    public VR> SingleOutputStreamOperator aggregate(

            AggregateFunctionACCV> aggFunction,

            ProcessWindowFunctionRKW> windowFunction)

    这样调用的处理机制是:基于第一个参数(增量聚合函数)来处理窗口数据,每来一个数据就做一次聚合;等到窗口需要触发计算时,则调用第二个参数(全窗口函数)的处理逻辑输出结果。需要注意的是,这里的全窗口函数就不再缓存所有数据了,而是直接将增量聚合函数的结果拿来当作了Iterable类型的输入。

    具体实现代码如下:

    1. package com.atguigu.window;
    2. import com.atguigu.bean.WaterSensor;
    3. import com.atguigu.functions.WaterSensorMapFunction;
    4. import org.apache.commons.lang3.time.DateFormatUtils;
    5. import org.apache.flink.api.common.functions.AggregateFunction;
    6. import org.apache.flink.streaming.api.datastream.KeyedStream;
    7. import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
    8. import org.apache.flink.streaming.api.datastream.WindowedStream;
    9. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    10. import org.apache.flink.streaming.api.functions.windowing.ProcessWindowFunction;
    11. import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows;
    12. import org.apache.flink.streaming.api.windowing.time.Time;
    13. import org.apache.flink.streaming.api.windowing.windows.TimeWindow;
    14. import org.apache.flink.util.Collector;
    15. /**
    16. * TODO
    17. *
    18. * @author cjp
    19. * @version 1.0
    20. */
    21. public class WindowAggregateAndProcessDemo {
    22. public static void main(String[] args) throws Exception {
    23. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    24. env.setParallelism(1);
    25. SingleOutputStreamOperator sensorDS = env
    26. .socketTextStream("hadoop102", 7777)
    27. .map(new WaterSensorMapFunction());
    28. KeyedStream sensorKS = sensorDS.keyBy(sensor -> sensor.getId());
    29. // 1. 窗口分配器
    30. WindowedStream sensorWS = sensorKS.window(TumblingProcessingTimeWindows.of(Time.seconds(10)));
    31. // 2. 窗口函数:
    32. /**
    33. * 增量聚合 Aggregate + 全窗口 process
    34. * 1、增量聚合函数处理数据: 来一条计算一条
    35. * 2、窗口触发时, 增量聚合的结果(只有一条) 传递给 全窗口函数
    36. * 3、经过全窗口函数的处理包装后,输出
    37. *
    38. * 结合两者的优点:
    39. * 1、增量聚合: 来一条计算一条,存储中间的计算结果,占用的空间少
    40. * 2、全窗口函数: 可以通过 上下文 实现灵活的功能
    41. */
    42. // sensorWS.reduce() //也可以传两个
    43. SingleOutputStreamOperator result = sensorWS.aggregate(
    44. new MyAgg(),
    45. new MyProcess()
    46. );
    47. result.print();
    48. env.execute();
    49. }
    50. public static class MyAgg implements AggregateFunction{
    51. @Override
    52. public Integer createAccumulator() {
    53. System.out.println("创建累加器");
    54. return 0;
    55. }
    56. @Override
    57. public Integer add(WaterSensor value, Integer accumulator) {
    58. System.out.println("调用add方法,value="+value);
    59. return accumulator + value.getVc();
    60. }
    61. @Override
    62. public String getResult(Integer accumulator) {
    63. System.out.println("调用getResult方法");
    64. return accumulator.toString();
    65. }
    66. @Override
    67. public Integer merge(Integer a, Integer b) {
    68. System.out.println("调用merge方法");
    69. return null;
    70. }
    71. }
    72. // 全窗口函数的输入类型 = 增量聚合函数的输出类型
    73. public static class MyProcess extends ProcessWindowFunction{
    74. @Override
    75. public void process(String s, Context context, Iterable elements, Collector out) throws Exception {
    76. long startTs = context.window().getStart();
    77. long endTs = context.window().getEnd();
    78. String windowStart = DateFormatUtils.format(startTs, "yyyy-MM-dd HH:mm:ss.SSS");
    79. String windowEnd = DateFormatUtils.format(endTs, "yyyy-MM-dd HH:mm:ss.SSS");
    80. long count = elements.spliterator().estimateSize();
    81. out.collect("key=" + s + "的窗口[" + windowStart + "," + windowEnd + ")包含" + count + "条数据===>" + elements.toString());
    82. }
    83. }
    84. }

    这里我们为了方便处理,单独定义了一个POJO类UrlViewCount来表示聚合输出结果的数据类型,包含了url、浏览量以及窗口的起始结束时间。用一个AggregateFunction来实现增量聚合,每来一个数据就计数加一;得到的结果交给ProcessWindowFunction,结合窗口信息包装成我们想要的UrlViewCount,最终输出统计结果。

    6.1.6 其他API

    对于一个窗口算子而言,窗口分配器和窗口函数是必不可少的。除此之外,Flink还提供了其他一些可选的API,让我们可以更加灵活地控制窗口行为。

    6.1.6.1 触发器(Trigger)

    触发器主要是用来控制窗口什么时候触发计算。所谓的“触发计算”,本质上就是执行窗口函数,所以可以认为是计算得到结果并输出的过程。

    基于WindowedStream调用.trigger()方法,就可以传入一个自定义的窗口触发器(Trigger)。

    stream.keyBy(...)

           .window(...)

           .trigger(new MyTrigger())

    6.1.6.2 移除器(Evictor)

    移除器主要用来定义移除某些数据的逻辑。基于WindowedStream调用.evictor()方法,就可以传入一个自定义的移除器(Evictor)。Evictor是一个接口,不同的窗口类型都有各自预实现的移除器。

    stream.keyBy(...)

           .window(...)

           .evictor(new MyEvictor())

    6.2 时间语义

    6.2.1 Flink中的时间语义

    6.2.2 哪种时间语义更重要

    1)从《星球大战》说起

    为了更加清晰地说明两种语义的区别,我们来举一个非常经典的例子:电影《星球大战》。

    如上图所示,我们会发现,看电影其实就是处理影片中数据的过程,所以影片的上映时间就相当于“处理时间”;而影片的数据就是所描述的故事,它所发生的背景时间就相当于“事件时间”。两种时间语义都有各自的用途,适用于不同的场景。

    2)数据处理系统中的时间语义

    在实际应用中,事件时间语义会更为常见。一般情况下,业务日志数据中都会记录数据生成的时间戳(timestamp),它就可以作为事件时间的判断基础。

    在Flink中,由于处理时间比较简单,早期版本默认的时间语义是处理时间;而考虑到事件时间在实际应用中更为广泛,从Flink1.12版本开始,Flink已经将事件时间作为默认的时间语义了。

    6.3 水位线(Watermark

    6.3.1 事件时间和窗口

    数据不来,逻辑时钟的时间不会往前推进

    6.3.2 什么是水位线

    在Flink中,用来衡量事件时间进展的标记,就被称作“水位线”(Watermark

    具体实现上,水位线可以看作一条特殊的数据记录,它是插入到数据流中的一个标记点,主要内容就是一个时间戳,用来指示当前的事件时间。而它插入流中的位置,就应该是在某个数据到来之后;这样就可以从这个数据中提取时间戳,作为当前水位线的时间戳了

     

     

     

     

     

     6.3.3 水位线和窗口的工作原理

     

     

     

    注意:Flink中窗口并不是静态准备好的,而是动态创建——当有落在这个窗口区间范围的数据达到时,才创建对应的窗口。另外,这里我们认为到达窗口结束时间时,窗口就触发计算并关闭,事实上“触发计算”和“窗口关闭”两个行为也可以分开,这部分内容我们会在后面详述。

    6.3.4 生成水位线

    6.3.4.1 生成水位线的总体原则

    完美的水位线是“绝对正确”的,也就是一个水位线一旦出现,就表示这个时间之前的数据已经全部到齐、之后再也不会出现了。不过如果要保证绝对正确,就必须等足够长的时间,这会带来更高的延迟。

    如果我们希望处理得更快、实时性更强,那么可以将水位线延迟设得低一些。这种情况下,可能很多迟到数据会在水位线之后才到达,就会导致窗口遗漏数据,计算结果不准确。当然,如果我们对准确性完全不考虑、一味地追求处理速度,可以直接使用处理时间语义,这在理论上可以得到最低的延迟。

    所以Flink中的水位线,其实是流处理中对低延迟和结果正确性的一个权衡机制,而且把控制的权力交给了程序员,我们可以在代码中定义水位线的生成策略。

    6.3.4.2 水位线生成策略

    在Flink的DataStream API中,有一个单独用于生成水位线的方法:.assignTimestampsAndWatermarks(),它主要用来为流中的数据分配时间戳,并生成水位线来指示事件时间。具体使用如下:

    DataStream stream = env.addSource(new ClickSource());

    DataStream withTimestampsAndWatermarks =

    stream.assignTimestampsAndWatermarks();

    说明:WatermarkStrategy作为参数,这就是所谓的“水位线生成策略”。WatermarkStrategy是一个接口,该接口中包含了一个“时间戳分配器”TimestampAssigner和一个“水位线生成器”WatermarkGenerator。

    public interface WatermarkStrategy

        extends TimestampAssignerSupplier,

                WatermarkGeneratorSupplier{

        // 负责从流中数据元素的某个字段中提取时间戳,并分配给元素。时间戳的分配是生成水位线的基础。

        @Override

        TimestampAssigner createTimestampAssigner(TimestampAssignerSupplier.Context context);

        // 主要负责按照既定的方式,基于时间戳生成水位线

        @Override

        WatermarkGenerator createWatermarkGenerator(WatermarkGeneratorSupplier.Context context);

    }

    6.3.4.3 Flink内置水位线

    1)有序流中内置水位线设置

    对于有序流,主要特点就是时间戳单调增长,所以永远不会出现迟到数据的问题。这是周期性生成水位线的最简单的场景,直接调用WatermarkStrategy.forMonotonousTimestamps()方法就可以实现。

    1. package com.atguigu.watermark;
    2. import com.atguigu.bean.WaterSensor;
    3. import com.atguigu.functions.WaterSensorMapFunction;
    4. import org.apache.commons.lang3.time.DateFormatUtils;
    5. import org.apache.flink.api.common.eventtime.SerializableTimestampAssigner;
    6. import org.apache.flink.api.common.eventtime.WatermarkStrategy;
    7. import org.apache.flink.streaming.api.datastream.KeyedStream;
    8. import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
    9. import org.apache.flink.streaming.api.datastream.WindowedStream;
    10. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    11. import org.apache.flink.streaming.api.functions.windowing.ProcessWindowFunction;
    12. import org.apache.flink.streaming.api.windowing.assigners.TumblingEventTimeWindows;
    13. import org.apache.flink.streaming.api.windowing.assigners.TumblingProcessingTimeWindows;
    14. import org.apache.flink.streaming.api.windowing.time.Time;
    15. import org.apache.flink.streaming.api.windowing.windows.TimeWindow;
    16. import org.apache.flink.util.Collector;
    17. /**
    18. * TODO
    19. *
    20. * @author cjp
    21. * @version 1.0
    22. */
    23. public class WatermarkMonoDemo {
    24. public static void main(String[] args) throws Exception {
    25. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    26. env.setParallelism(1);
    27. SingleOutputStreamOperator sensorDS = env
    28. .socketTextStream("hadoop102", 7777)
    29. .map(new WaterSensorMapFunction());
    30. // TODO 1.定义Watermark策略
    31. WatermarkStrategy watermarkStrategy = WatermarkStrategy
    32. // 1.1 指定watermark生成:升序的watermark,没有等待时间
    33. .forMonotonousTimestamps()
    34. // 1.2 指定 时间戳分配器,从数据中提取
    35. .withTimestampAssigner(new SerializableTimestampAssigner() {
    36. @Override
    37. public long extractTimestamp(WaterSensor element, long recordTimestamp) {
    38. // 返回的时间戳,要 毫秒
    39. System.out.println("数据=" + element + ",recordTs=" + recordTimestamp);
    40. return element.getTs() * 1000L;
    41. }
    42. });
    43. // TODO 2. 指定 watermark策略
    44. SingleOutputStreamOperator sensorDSwithWatermark = sensorDS.assignTimestampsAndWatermarks(watermarkStrategy);
    45. sensorDSwithWatermark.keyBy(sensor -> sensor.getId())
    46. // TODO 3.使用 事件时间语义 的窗口
    47. .window(TumblingEventTimeWindows.of(Time.seconds(10)))
    48. .process(
    49. new ProcessWindowFunction() {
    50. @Override
    51. public void process(String s, Context context, Iterable elements, Collector out) throws Exception {
    52. long startTs = context.window().getStart();
    53. long endTs = context.window().getEnd();
    54. String windowStart = DateFormatUtils.format(startTs, "yyyy-MM-dd HH:mm:ss.SSS");
    55. String windowEnd = DateFormatUtils.format(endTs, "yyyy-MM-dd HH:mm:ss.SSS");
    56. long count = elements.spliterator().estimateSize();
    57. out.collect("key=" + s + "的窗口[" + windowStart + "," + windowEnd + ")包含" + count + "条数据===>" + elements.toString());
    58. }
    59. }
    60. )
    61. .print();
    62. env.execute();
    63. }
    64. }

    2)乱序流中内置水位线设置

    由于乱序流中需要等待迟到数据到齐,所以必须设置一个固定量的延迟时间。这时生成水位线的时间戳,就是当前数据流中最大的时间戳减去延迟的结果,相当于把表调慢,当前时钟会滞后于数据的最大时间戳。调用WatermarkStrategy. forBoundedOutOfOrderness()方法就可以实现。这个方法需要传入一个maxOutOfOrderness参数,表示“最大乱序程度”,它表示数据流中乱序数据时间戳的最大差值;如果我们能确定乱序程度,那么设置对应时间长度的延迟,就可以等到所有的乱序数据了。

    1. package com.atguigu.watermark;
    2. import com.atguigu.bean.WaterSensor;
    3. import com.atguigu.functions.WaterSensorMapFunction;
    4. import org.apache.commons.lang3.time.DateFormatUtils;
    5. import org.apache.flink.api.common.ExecutionConfig;
    6. import org.apache.flink.api.common.eventtime.SerializableTimestampAssigner;
    7. import org.apache.flink.api.common.eventtime.WatermarkGenerator;
    8. import org.apache.flink.api.common.eventtime.WatermarkGeneratorSupplier;
    9. import org.apache.flink.api.common.eventtime.WatermarkStrategy;
    10. import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
    11. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    12. import org.apache.flink.streaming.api.functions.windowing.ProcessWindowFunction;
    13. import org.apache.flink.streaming.api.windowing.assigners.TumblingEventTimeWindows;
    14. import org.apache.flink.streaming.api.windowing.time.Time;
    15. import org.apache.flink.streaming.api.windowing.windows.TimeWindow;
    16. import org.apache.flink.util.Collector;
    17. import java.time.Duration;
    18. /**
    19. * TODO
    20. *
    21. * @author cjp
    22. * @version 1.0
    23. */
    24. public class WatermarkOutOfOrdernessDemo {
    25. public static void main(String[] args) throws Exception {
    26. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    27. // env.setParallelism(1);
    28. /**
    29. * 演示watermark多并行度下的传递
    30. * 1、接收到上游多个,取最小
    31. * 2、往下游多个发送, 广播
    32. */
    33. env.setParallelism(2);
    34. SingleOutputStreamOperator sensorDS = env
    35. .socketTextStream("hadoop102", 7777)
    36. .map(new WaterSensorMapFunction());
    37. // TODO 1.定义Watermark策略
    38. WatermarkStrategy watermarkStrategy = WatermarkStrategy
    39. // 1.1 指定watermark生成:乱序的,等待3s
    40. .forBoundedOutOfOrderness(Duration.ofSeconds(3))
    41. // 1.2 指定 时间戳分配器,从数据中提取
    42. .withTimestampAssigner(
    43. (element, recordTimestamp) -> {
    44. // 返回的时间戳,要 毫秒
    45. System.out.println("数据=" + element + ",recordTs=" + recordTimestamp);
    46. return element.getTs() * 1000L;
    47. });
    48. // TODO 2. 指定 watermark策略
    49. SingleOutputStreamOperator sensorDSwithWatermark = sensorDS.assignTimestampsAndWatermarks(watermarkStrategy);
    50. sensorDSwithWatermark.keyBy(sensor -> sensor.getId())
    51. // TODO 3.使用 事件时间语义 的窗口
    52. .window(TumblingEventTimeWindows.of(Time.seconds(10)))
    53. .process(
    54. new ProcessWindowFunction() {
    55. @Override
    56. public void process(String s, Context context, Iterable elements, Collector out) throws Exception {
    57. long startTs = context.window().getStart();
    58. long endTs = context.window().getEnd();
    59. String windowStart = DateFormatUtils.format(startTs, "yyyy-MM-dd HH:mm:ss.SSS");
    60. String windowEnd = DateFormatUtils.format(endTs, "yyyy-MM-dd HH:mm:ss.SSS");
    61. long count = elements.spliterator().estimateSize();
    62. out.collect("key=" + s + "的窗口[" + windowStart + "," + windowEnd + ")包含" + count + "条数据===>" + elements.toString());
    63. }
    64. }
    65. )
    66. .print();
    67. env.execute();
    68. }
    69. }
    70. /**
    71. * TODO 内置Watermark的生成原理
    72. * 1、都是周期性生成的: 默认200ms
    73. * 2、有序流: watermark = 当前最大的事件时间 - 1ms
    74. * 3、乱序流: watermark = 当前最大的事件时间 - 延迟时间 - 1ms
    75. */
    6.3.4.4 自定义水位线生成器

    1)周期性水位线生成器(Periodic Generator

    周期性生成器一般是通过onEvent()观察判断输入的事件,而在onPeriodicEmit()里发出水位线。

    下面是一段自定义周期性生成水位线的代码:

    1. import com.atguigu.bean.Event;
    2. import org.apache.flink.api.common.eventtime.*;
    3. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    4. // 自定义水位线的产生
    5. public class CustomPeriodicWatermarkExample {
    6. public static void main(String[] args) throws Exception {
    7. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    8. env
    9. .addSource(new ClickSource())
    10. .assignTimestampsAndWatermarks(new CustomWatermarkStrategy())
    11. .print();
    12. env.execute();
    13. }
    14. public static class CustomWatermarkStrategy implements WatermarkStrategy {
    15. @Override
    16. public TimestampAssigner createTimestampAssigner(TimestampAssignerSupplier.Context context) {
    17. return new SerializableTimestampAssigner() {
    18. @Override
    19. public long extractTimestamp(Event element,long recordTimestamp) {
    20. return element.timestamp; // 告诉程序数据源里的时间戳是哪一个字段
    21. }
    22. };
    23. }
    24. @Override
    25. public WatermarkGenerator createWatermarkGenerator(WatermarkGeneratorSupplier.Context context) {
    26. return new CustomBoundedOutOfOrdernessGenerator();
    27. }
    28. }
    29. public static class CustomBoundedOutOfOrdernessGenerator implements WatermarkGenerator {
    30. private Long delayTime = 5000L; // 延迟时间
    31. private Long maxTs = -Long.MAX_VALUE + delayTime + 1L; // 观察到的最大时间戳
    32. @Override
    33. public void onEvent(Event event,long eventTimestamp,WatermarkOutput output) {
    34. // 每来一条数据就调用一次
    35. maxTs = Math.max(event.timestamp,maxTs); // 更新最大时间戳
    36. }
    37. @Override
    38. public void onPeriodicEmit(WatermarkOutput output) {
    39. // 发射水位线,默认200ms调用一次
    40. output.emitWatermark(new Watermark(maxTs - delayTime - 1L));
    41. }
    42. }
    43. }

    我们在onPeriodicEmit()里调用output.emitWatermark(),就可以发出水位线了;这个方法由系统框架周期性地调用,默认200ms一次。

    如果想修改默认周期时间,可以通过下面方法修改。例如:修改为400ms

    env.getConfig().setAutoWatermarkInterval(400L);

    2)断点式水位线生成器(Punctuated Generator

    断点式生成器会不停地检测onEvent()中的事件,当发现带有水位线信息的事件时,就立即发出水位线。我们把发射水位线的逻辑写在onEvent方法当中即可。

    3)在数据源中发送水位线

    我们也可以在自定义的数据源中抽取事件时间,然后发送水位线。这里要注意的是,在自定义数据源中发送了水位线以后,就不能再在程序中使用assignTimestampsAndWatermarks方法来生成水位线了。在自定义数据源中生成水位线和在程序中使用assignTimestampsAndWatermarks方法生成水位线二者只能取其一。示例程序如下:

    env.fromSource(

    kafkaSource, WatermarkStrategy.forBoundedOutOfOrderness(Duration.ofSeconds(3)), "kafkasource"

    )

    6.3.5 水位线的传递

    在流处理中,上游任务处理完水位线、时钟改变之后,要把当前的水位线再次发出,广播给所有的下游子任务。而当一个任务接收到多个上游并行任务传递来的水位线时,应该以最小的那个作为当前任务的事件时钟

    水位线在上下游任务之间的传递,非常巧妙地避免了分布式系统中没有统一时钟的问题,每个任务都以“处理完之前所有数据”为标准来确定自己的时钟

            案例:6.3.4.3 中乱序流的watermark,将并行度设为2,观察现象。

            在多个上游并行任务中,如果有其中一个没有数据,由于当前Task是以最小的那个作为当前任务的事件时钟,就会导致当前Task的水位线无法推进,就可能导致窗口无法触发。这时候可以设置空闲等待。

            用5.3.4.6中的自定义分区器,只输入奇数来模拟部分subtask无数据,代码如下:

    1. public class WatermarkIdlenessDemo {
    2. public static void main(String[] args) throws Exception {
    3. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    4. env.setParallelism(2);
    5. // 自定义分区器:数据%分区数,只输入奇数,都只会去往map的一个子任务
    6. SingleOutputStreamOperator socketDS = env
    7. .socketTextStream("hadoop102", 7777)
    8. .partitionCustom(new MyPartitioner(), r -> r)
    9. .map(r -> Integer.parseInt(r))
    10. .assignTimestampsAndWatermarks(
    11. WatermarkStrategy
    12. .forMonotonousTimestamps()
    13. .withTimestampAssigner((r, ts) -> r * 1000L)
    14. .withIdleness(Duration.ofSeconds(5)) //空闲等待5s
    15. );
    16. // 分成两组: 奇数一组,偶数一组 , 开10s的事件时间滚动窗口
    17. socketDS
    18. .keyBy(r -> r % 2)
    19. .window(TumblingEventTimeWindows.of(Time.seconds(10)))
    20. .process(new ProcessWindowFunction() {
    21. @Override
    22. public void process(Integer integer, Context context, Iterable elements, Collector out) throws Exception {
    23. long startTs = context.window().getStart();
    24. long endTs = context.window().getEnd();
    25. String windowStart = DateFormatUtils.format(startTs, "yyyy-MM-dd HH:mm:ss.SSS");
    26. String windowEnd = DateFormatUtils.format(endTs, "yyyy-MM-dd HH:mm:ss.SSS");
    27. long count = elements.spliterator().estimateSize();
    28. out.collect("key=" + integer + "的窗口[" + windowStart + "," + windowEnd + ")包含" + count + "条数据===>" + elements.toString());
    29. }
    30. })
    31. .print();
    32. env.execute();
    33. }
    34. }

    6.3.6 迟到数据的处理

    6.3.6.1 推迟水印推进

    在水印产生时,设置一个乱序容忍度,推迟系统时间的推进,保证窗口计算被延迟执行,为乱序的数据争取更多的时间进入窗口。

    WatermarkStrategy.forBoundedOutOfOrderness(Duration.ofSeconds(10));

    6.3.6.2 设置窗口延迟关闭

     Flink的窗口,也允许迟到数据。当触发了窗口计算后,会先计算当前的结果,但是此时并不会关闭窗口。

    以后每来一条迟到数据,就触发一次这条数据所在窗口计算(增量计算)。直到wartermark 超过了窗口结束时间+推迟时间,此时窗口会真正关闭。

    .window(TumblingEventTimeWindows.of(Time.seconds(5)))
    .
    allowedLateness(Time.seconds(3)) //推迟3秒关闭窗口

    注意:

    允许迟到只能运用在event time上

    6.3.6.3 使用侧流接收迟到的数据

    .windowAll(TumblingEventTimeWindows.of(Time.seconds(5)))

    .allowedLateness(Time.seconds(3))

    .sideOutputLateData(lateWS)

    完整案例代码如下:

    1. package com.atguigu.watermark;
    2. import com.atguigu.bean.WaterSensor;
    3. import com.atguigu.functions.WaterSensorMapFunction;
    4. import org.apache.commons.lang3.time.DateFormatUtils;
    5. import org.apache.flink.api.common.eventtime.WatermarkStrategy;
    6. import org.apache.flink.api.common.typeinfo.Types;
    7. import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
    8. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    9. import org.apache.flink.streaming.api.functions.windowing.ProcessWindowFunction;
    10. import org.apache.flink.streaming.api.windowing.assigners.TumblingEventTimeWindows;
    11. import org.apache.flink.streaming.api.windowing.time.Time;
    12. import org.apache.flink.streaming.api.windowing.windows.TimeWindow;
    13. import org.apache.flink.util.Collector;
    14. import org.apache.flink.util.OutputTag;
    15. import java.time.Duration;
    16. /**
    17. * TODO
    18. *
    19. * @author cjp
    20. * @version 1.0
    21. */
    22. public class WatermarkLateDemo {
    23. public static void main(String[] args) throws Exception {
    24. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    25. env.setParallelism(1);
    26. SingleOutputStreamOperator sensorDS = env
    27. .socketTextStream("hadoop102", 7777)
    28. .map(new WaterSensorMapFunction());
    29. WatermarkStrategy watermarkStrategy = WatermarkStrategy
    30. .forBoundedOutOfOrderness(Duration.ofSeconds(3))
    31. .withTimestampAssigner((element, recordTimestamp) -> element.getTs() * 1000L);
    32. SingleOutputStreamOperator sensorDSwithWatermark = sensorDS.assignTimestampsAndWatermarks(watermarkStrategy);
    33. OutputTag lateTag = new OutputTag<>("late-data", Types.POJO(WaterSensor.class));
    34. SingleOutputStreamOperator process = sensorDSwithWatermark.keyBy(sensor -> sensor.getId())
    35. .window(TumblingEventTimeWindows.of(Time.seconds(10)))
    36. .allowedLateness(Time.seconds(2)) // 推迟2s关窗
    37. .sideOutputLateData(lateTag) // 关窗后的迟到数据,放入侧输出流
    38. .process(
    39. new ProcessWindowFunction() {
    40. @Override
    41. public void process(String s, Context context, Iterable elements, Collector out) throws Exception {
    42. long startTs = context.window().getStart();
    43. long endTs = context.window().getEnd();
    44. String windowStart = DateFormatUtils.format(startTs, "yyyy-MM-dd HH:mm:ss.SSS");
    45. String windowEnd = DateFormatUtils.format(endTs, "yyyy-MM-dd HH:mm:ss.SSS");
    46. long count = elements.spliterator().estimateSize();
    47. out.collect("key=" + s + "的窗口[" + windowStart + "," + windowEnd + ")包含" + count + "条数据===>" + elements.toString());
    48. }
    49. }
    50. );
    51. process.print();
    52. // 从主流获取侧输出流,打印
    53. process.getSideOutput(lateTag).printToErr("关窗后的迟到数据");
    54. env.execute();
    55. }
    56. }
    57. /**
    58. * 1、乱序与迟到的区别
    59. * 乱序: 数据的顺序乱了, 时间小的 比 时间大的 晚来
    60. * 迟到: 数据的时间戳 < 当前的watermark
    61. * 2、乱序、迟到数据的处理
    62. * 1) watermark中指定 乱序等待时间
    63. * 2) 如果开窗,设置窗口允许迟到
    64. * =》 推迟关窗时间,在关窗之前,迟到数据来了,还能被窗口计算,来一条迟到数据触发一次计算
    65. * =》 关窗后,迟到数据不会被计算
    66. * 3) 关窗后的迟到数据,放入侧输出流
    67. *
    68. *
    69. * 如果 watermark等待3s,窗口允许迟到2s, 为什么不直接 watermark等待5s 或者 窗口允许迟到5s?
    70. * =》 watermark等待时间不会设太大 ===》 影响的计算延迟
    71. * 如果3s ==》 窗口第一次触发计算和输出, 13s的数据来 。 13-3=10s
    72. * 如果5s ==》 窗口第一次触发计算和输出, 15s的数据来 。 15-5=10s
    73. * =》 窗口允许迟到,是对 大部分迟到数据的 处理, 尽量让结果准确
    74. * 如果只设置 允许迟到5s, 那么 就会导致 频繁 重新输出
    75. *
    76. * TODO 设置经验
    77. * 1、watermark等待时间,设置一个不算特别大的,一般是秒级,在 乱序和 延迟 取舍
    78. * 2、设置一定的窗口允许迟到,只考虑大部分的迟到数据,极端小部分迟到很久的数据,不管
    79. * 3、极端小部分迟到很久的数据, 放到侧输出流。 获取到之后可以做各种处理
    80. *
    81. */

    6.4 基于时间的合流——双流联结(Join

    可以发现,根据某个key合并两条流,与关系型数据库中表的join操作非常相近。事实上,Flink中两条流的connect操作,就可以通过keyBy指定键进行分组后合并,实现了类似于SQL中的join操作;另外connect支持处理函数,可以使用自定义实现各种需求,其实已经能够处理双流join的大多数场景。

    不过处理函数是底层接口,所以尽管connect能做的事情多,但在一些具体应用场景下还是显得太过抽象了。比如,如果我们希望统计固定时间内两条流数据的匹配情况,那就需要自定义来实现——其实这完全可以用窗口(window)来表示。为了更方便地实现基于时间的合流操作,Flink的DataStrema API提供了内置的join算子。

    6.4.1 窗口联结(Window Join

    Flink为基于一段时间的双流合并专门提供了一个窗口联结算子,可以定义时间窗口,并将两条流中共享一个公共键(key)的数据放在窗口中进行配对处理。

    1)窗口联结的调用

    窗口联结在代码中的实现,首先需要调用DataStream的.join()方法来合并两条流,得到一个JoinedStreams;接着通过.where()和.equalTo()方法指定两条流中联结的key;然后通过.window()开窗口,并调用.apply()传入联结窗口函数进行处理计算。通用调用形式如下:

    stream1.join(stream2)

            .where()

            .equalTo()

            .window()

            .apply()

    上面代码中.where()的参数是键选择器(KeySelector),用来指定第一条流中的key;而.equalTo()传入的KeySelector则指定了第二条流中的key。两者相同的元素,如果在同一窗口中,就可以匹配起来,并通过一个“联结函数”(JoinFunction)进行处理了。

    这里.window()传入的就是窗口分配器,之前讲到的三种时间窗口都可以用在这里:滚动窗口(tumbling window)、滑动窗口(sliding window)和会话窗口(session window)。

    而后面调用.apply()可以看作实现了一个特殊的窗口函数。注意这里只能调用.apply(),没有其他替代的方法。

    传入的JoinFunction也是一个函数类接口,使用时需要实现内部的.join()方法。这个方法有两个参数,分别表示两条流中成对匹配的数据。

    其实仔细观察可以发现,窗口join的调用语法和我们熟悉的SQL中表的join非常相似:

    SELECT * FROM table1 t1, table2 t2 WHERE t1.id = t2.id;

    这句SQL中where子句的表达,等价于inner join ... on,所以本身表示的是两张表基于id的“内连接”(inner join)。而Flink中的window join,同样类似于inner join。也就是说,最后处理输出的,只有两条流中数据按key配对成功的那些;如果某个窗口中一条流的数据没有任何另一条流的数据匹配,那么就不会调用JoinFunction的.join()方法,也就没有任何输出了。

    2)窗口联结实例

    代码实现:

    1. public class WindowJoinDemo {
    2. public static void main(String[] args) throws Exception {
    3. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    4. env.setParallelism(1);
    5. SingleOutputStreamOperator> ds1 = env
    6. .fromElements(
    7. Tuple2.of("a", 1),
    8. Tuple2.of("a", 2),
    9. Tuple2.of("b", 3),
    10. Tuple2.of("c", 4)
    11. )
    12. .assignTimestampsAndWatermarks(
    13. WatermarkStrategy
    14. .>forMonotonousTimestamps()
    15. .withTimestampAssigner((value, ts) -> value.f1 * 1000L)
    16. );
    17. SingleOutputStreamOperator> ds2 = env
    18. .fromElements(
    19. Tuple3.of("a", 1,1),
    20. Tuple3.of("a", 11,1),
    21. Tuple3.of("b", 2,1),
    22. Tuple3.of("b", 12,1),
    23. Tuple3.of("c", 14,1),
    24. Tuple3.of("d", 15,1)
    25. )
    26. .assignTimestampsAndWatermarks(
    27. WatermarkStrategy
    28. .>forMonotonousTimestamps()
    29. .withTimestampAssigner((value, ts) -> value.f1 * 1000L)
    30. );
    31. // TODO window join
    32. // 1. 落在同一个时间窗口范围内才能匹配
    33. // 2. 根据keyby的key,来进行匹配关联
    34. // 3. 只能拿到匹配上的数据,类似有固定时间范围的inner join
    35. DataStream join = ds1.join(ds2)
    36. .where(r1 -> r1.f0) // ds1的keyby
    37. .equalTo(r2 -> r2.f0) // ds2的keyby
    38. .window(TumblingEventTimeWindows.of(Time.seconds(10)))
    39. .apply(new JoinFunction, Tuple3, String>() {
    40. /**
    41. * 关联上的数据,调用join方法
    42. * @param first ds1的数据
    43. * @param second ds2的数据
    44. * @return
    45. * @throws Exception
    46. */
    47. @Override
    48. public String join(Tuple2 first, Tuple3 second) throws Exception {
    49. return first + "<----->" + second;
    50. }
    51. });
    52. join.print();
    53. env.execute();
    54. }
    55. }

    6.4.2 间隔联结(Interval Join

    在有些场景下,我们要处理的时间间隔可能并不是固定的。这时显然不应该用滚动窗口或滑动窗口来处理——因为匹配的两个数据有可能刚好“卡在”窗口边缘两侧,于是窗口内就都没有匹配了;会话窗口虽然时间不固定,但也明显不适合这个场景。基于时间的窗口联结已经无能为力了。

    为了应对这样的需求,Flink提供了一种叫作“间隔联结”(interval join)的合流操作。顾名思义,间隔联结的思路就是针对一条流的每个数据,开辟出其时间戳前后的一段时间间隔,看这期间是否有来自另一条流的数据匹配。

    1)间隔联结的原理

    间隔联结具体的定义方式是,我们给定两个时间点,分别叫作间隔的“上界”(upperBound)和“下界”(lowerBound);于是对于一条流(不妨叫作A)中的任意一个数据元素a,就可以开辟一段时间间隔:[a.timestamp + lowerBound, a.timestamp + upperBound],即以a的时间戳为中心,下至下界点、上至上界点的一个闭区间:我们就把这段时间作为可以匹配另一条流数据的“窗口”范围。所以对于另一条流(不妨叫B)中的数据元素b,如果它的时间戳落在了这个区间范围内,a和b就可以成功配对,进而进行计算输出结果。所以匹配的条件为:

    a.timestamp + lowerBound <= b.timestamp <= a.timestamp + upperBound

    这里需要注意,做间隔联结的两条流A和B,也必须基于相同的key;下界lowerBound应该小于等于上界upperBound,两者都可正可负;间隔联结目前只支持事件时间语义

    如下图所示,我们可以清楚地看到间隔联结的方式:

    下方的流A去间隔联结上方的流B,所以基于A的每个数据元素,都可以开辟一个间隔区间。我们这里设置下界为-2毫秒,上界为1毫秒。于是对于时间戳为2的A中元素,它的可匹配区间就是[0, 3],流B中有时间戳为0、1的两个元素落在这个范围内,所以就可以得到匹配数据对(2, 0)和(2, 1)。同样地,A中时间戳为3的元素,可匹配区间为[1, 4],B中只有时间戳为1的一个数据可以匹配,于是得到匹配数据对(3, 1)。

    所以我们可以看到,间隔联结同样是一种内连接(inner join)。与窗口联结不同的是,interval join做匹配的时间段是基于流中数据的,所以并不确定;而且流B中的数据可以不只在一个区间内被匹配。

    2)间隔联结的调用

    间隔联结在代码中,是基于KeyedStream的联结(join)操作。DataStream在keyBy得到KeyedStream之后,可以调用.intervalJoin()来合并两条流,传入的参数同样是一个KeyedStream,两者的key类型应该一致;得到的是一个IntervalJoin类型。后续的操作同样是完全固定的:先通过.between()方法指定间隔的上下界,再调用.process()方法,定义对匹配数据对的处理操作。调用.process()需要传入一个处理函数,这是处理函数家族的最后一员:“处理联结函数”ProcessJoinFunction。

    通用调用形式如下:

    stream1

        .keyBy()

        .intervalJoin(stream2.keyBy())

        .between(Time.milliseconds(-2), Time.milliseconds(1))

        .process (new ProcessJoinFunction

            @Override

            public void processElement(Integer left, Integer right, Context ctx, Collector out) {

                out.collect(left + "," + right);

            }

        });

    可以看到,抽象类ProcessJoinFunction就像是ProcessFunction和JoinFunction的结合,内部同样有一个抽象方法.processElement()。与其他处理函数不同的是,它多了一个参数,这自然是因为有来自两条流的数据。参数中left指的就是第一条流中的数据,right则是第二条流中与它匹配的数据。每当检测到一组匹配,就会调用这里的.processElement()方法,经处理转换之后输出结果。

    3)间隔联结实例

    案例需求:在电商网站中,某些用户行为往往会有短时间内的强关联。我们这里举一个例子,我们有两条流,一条是下订单的流,一条是浏览数据的流。我们可以针对同一个用户,来做这样一个联结。也就是使用一个用户的下订单的事件和这个用户的最近十分钟的浏览数据进行一个联结查询。

    (1)代码实现:正常使用

    1. public class IntervalJoinDemo {
    2. public static void main(String[] args) throws Exception {
    3. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    4. env.setParallelism(1);
    5. SingleOutputStreamOperator> ds1 = env
    6. .fromElements(
    7. Tuple2.of("a", 1),
    8. Tuple2.of("a", 2),
    9. Tuple2.of("b", 3),
    10. Tuple2.of("c", 4)
    11. )
    12. .assignTimestampsAndWatermarks(
    13. WatermarkStrategy
    14. .>forMonotonousTimestamps()
    15. .withTimestampAssigner((value, ts) -> value.f1 * 1000L)
    16. );
    17. SingleOutputStreamOperator> ds2 = env
    18. .fromElements(
    19. Tuple3.of("a", 1, 1),
    20. Tuple3.of("a", 11, 1),
    21. Tuple3.of("b", 2, 1),
    22. Tuple3.of("b", 12, 1),
    23. Tuple3.of("c", 14, 1),
    24. Tuple3.of("d", 15, 1)
    25. )
    26. .assignTimestampsAndWatermarks(
    27. WatermarkStrategy
    28. .>forMonotonousTimestamps()
    29. .withTimestampAssigner((value, ts) -> value.f1 * 1000L)
    30. );
    31. // TODO interval join
    32. //1. 分别做keyby,key其实就是关联条件
    33. KeyedStream, String> ks1 = ds1.keyBy(r1 -> r1.f0);
    34. KeyedStream, String> ks2 = ds2.keyBy(r2 -> r2.f0);
    35. //2. 调用 interval join
    36. ks1.intervalJoin(ks2)
    37. .between(Time.seconds(-2), Time.seconds(2))
    38. .process(
    39. new ProcessJoinFunction, Tuple3, String>() {
    40. /**
    41. * 两条流的数据匹配上,才会调用这个方法
    42. * @param left ks1的数据
    43. * @param right ks2的数据
    44. * @param ctx 上下文
    45. * @param out 采集器
    46. * @throws Exception
    47. */
    48. @Override
    49. public void processElement(Tuple2 left, Tuple3 right, Context ctx, Collector out) throws Exception {
    50. // 进入这个方法,是关联上的数据
    51. out.collect(left + "<------>" + right);
    52. }
    53. })
    54. .print();
    55. env.execute();
    56. }
    57. }

    (2)代码实现:处理迟到数据

    1. public class IntervalJoinWithLateDemo {
    2. public static void main(String[] args) throws Exception {
    3. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    4. env.setParallelism(1);
    5. SingleOutputStreamOperator> ds1 = env
    6. .socketTextStream("hadoop102", 7777)
    7. .map(new MapFunction>() {
    8. @Override
    9. public Tuple2 map(String value) throws Exception {
    10. String[] datas = value.split(",");
    11. return Tuple2.of(datas[0], Integer.valueOf(datas[1]));
    12. }
    13. })
    14. .assignTimestampsAndWatermarks(
    15. WatermarkStrategy
    16. .>forBoundedOutOfOrderness(Duration.ofSeconds(3))
    17. .withTimestampAssigner((value, ts) -> value.f1 * 1000L)
    18. );
    19. SingleOutputStreamOperator> ds2 = env
    20. .socketTextStream("hadoop102", 8888)
    21. .map(new MapFunction>() {
    22. @Override
    23. public Tuple3 map(String value) throws Exception {
    24. String[] datas = value.split(",");
    25. return Tuple3.of(datas[0], Integer.valueOf(datas[1]), Integer.valueOf(datas[2]));
    26. }
    27. })
    28. .assignTimestampsAndWatermarks(
    29. WatermarkStrategy
    30. .>forBoundedOutOfOrderness(Duration.ofSeconds(3))
    31. .withTimestampAssigner((value, ts) -> value.f1 * 1000L)
    32. );
    33. /**
    34. * TODO Interval join
    35. * 1、只支持事件时间
    36. * 2、指定上界、下界的偏移,负号代表时间往前,正号代表时间往后
    37. * 3、process中,只能处理 join上的数据
    38. * 4、两条流关联后的watermark,以两条流中最小的为准
    39. * 5、如果 当前数据的事件时间 < 当前的watermark,就是迟到数据, 主流的process不处理
    40. * => between后,可以指定将 左流 或 右流 的迟到数据 放入侧输出流
    41. */
    42. //1. 分别做keyby,key其实就是关联条件
    43. KeyedStream, String> ks1 = ds1.keyBy(r1 -> r1.f0);
    44. KeyedStream, String> ks2 = ds2.keyBy(r2 -> r2.f0);
    45. //2. 调用 interval join
    46. OutputTag> ks1LateTag = new OutputTag<>("ks1-late", Types.TUPLE(Types.STRING, Types.INT));
    47. OutputTag> ks2LateTag = new OutputTag<>("ks2-late", Types.TUPLE(Types.STRING, Types.INT, Types.INT));
    48. SingleOutputStreamOperator process = ks1.intervalJoin(ks2)
    49. .between(Time.seconds(-2), Time.seconds(2))
    50. .sideOutputLeftLateData(ks1LateTag) // 将 ks1的迟到数据,放入侧输出流
    51. .sideOutputRightLateData(ks2LateTag) // 将 ks2的迟到数据,放入侧输出流
    52. .process(
    53. new ProcessJoinFunction, Tuple3, String>() {
    54. /**
    55. * 两条流的数据匹配上,才会调用这个方法
    56. * @param left ks1的数据
    57. * @param right ks2的数据
    58. * @param ctx 上下文
    59. * @param out 采集器
    60. * @throws Exception
    61. */
    62. @Override
    63. public void processElement(Tuple2 left, Tuple3 right, Context ctx, Collector out) throws Exception {
    64. // 进入这个方法,是关联上的数据
    65. out.collect(left + "<------>" + right);
    66. }
    67. });
    68. process.print("主流");
    69. process.getSideOutput(ks1LateTag).printToErr("ks1迟到数据");
    70. process.getSideOutput(ks2LateTag).printToErr("ks2迟到数据");
    71. env.execute();
    72. }
    73. }

  • 相关阅读:
    harbor网桥修复 产生了多个br-设备
    编写竞赛程序
    Python 模拟类属性
    擎创技术流 | ClickHouse实用工具—ckman教程(1)部署安装
    这个好玩又实用的jupyter插件我真的爱了
    Linux--安装与配置虚拟机及虚拟机服务器坏境配置与连接---超详细教学
    第31届中国国际测量控制与仪器仪表展览会隆重举行,汉威科技创新产品精彩亮相
    R语言中如何查看已安装的R包
    Git工具的使用
    mysql添加时间戳列与触发器
  • 原文地址:https://blog.csdn.net/yuzheh521/article/details/133139665