• flink的分组聚合、over聚合、窗口聚合对比


    【背景】

    flink有几种聚合,使用上是有一些不同,需要加以区分:

    分组聚合:group agg

    over聚合:over agg

    窗口聚合:window agg

    省流版:

    触发计算时机

    结果流类型

    状态大小

    分组聚合group agg

    每当有新行就输出更新的结果

    update流

    保持中间结果,所以状态可能无限膨胀

    over agg

    每当有新行就输出更新的结果,类似一个滑动窗口

    append流

    保持中间结果,所以状态可能无限膨胀

    window agg

    窗口结束产生一个总的聚合结果

    append流

    不生成中间结果,自动清除状态

    下面是详细对比和具体的例子(主要讨论的是流处理下的情况)。

    over聚合:over agg

    OVER 聚合通过排序后的范围数据为每行输入计算出聚合值。和 GROUP BY 聚合不同, OVER 聚合不会把结果通过分组减少到一行,它会为每行输入增加一个聚合值,结果是一个append流


     OVER 窗口的语法。

    1. SELECT
    2.   agg_func(agg_col) OVER (
    3. [PARTITION BY col1[, col2, ...]]
    4. ORDER BY time_col
    5.     range_definition),
    6. ...
    7. FROM ...

    over聚合很少用到,所以本地自己做了一个测试:

    测试sql如下:
    1. create table test_window_tab
    2. (
    3.     region String
    4.     ,qa_id String
    5.     ,count_qa_id Bigint
    6. ) COMMENT ''
    7. with
    8. (
    9. 'properties.bootstrap.servers' ='',
    10. 'json.fail-on-missing-field' = 'false',
    11. 'connector' = 'kafka',
    12. 'format' = 'json',
    13. 'topic' = 'test_window_tab'
    14. )
    15. ;
    16. create table dwm_qa_score
    17. (
    18.     ,qa_id String   
    19.     ,agent_id String
    20.     ,region String
    21.     ,saas_id String
    22.     ,version_timestamp bigint
    23.     , ts as to_timestamp(from_unixtime(`version_timestamp`, 'yyyy-MM-dd HH:mm:ss'))
    24.     ,`event_time` TIMESTAMP(3) METADATA FROM 'timestamp' VIRTUAL
    25.     ,WATERMARK FOR `ts` AS `ts` - INTERVAL '10' SECOND
    26. ) COMMENT ''
    27. with
    28. (
    29. 'properties.bootstrap.servers' ='',
    30. 'json.fail-on-missing-field' = 'false',
    31. 'connector' = 'kafka',
    32. 'format' = 'json',
    33. 'scan.startup.mode' = 'earliest-offset',
    34. 'topic' = 'dwm_qa_score'
    35. )
    36. ;
    37. insert into test_window_tab(region,qa_id,count_qa_id)
    38. select region,qa_id,count(1)  over w as count_qa_id
    39. from dwm_qa_score
    40. window w as(
    41. partition by region,qa_id
    42. order by ts
    43. rows between 2 preceding and current row
    44. )

    dwm_qa_score这个topic现有数据

    { "qa_id": "123", "agent_id": "497235295815123",

    "region": "TH", "version_timestamp": 1709807228

    }

    { "qa_id": "123", "agent_id": "497235295815123",

    "region": "TH", "version_timestamp": 1709807228

    }

    { "qa_id": "123", "agent_id": "497235295815123",

    "region": "TH", "version_timestamp": 1709807228

    }

    { "qa_id": "123", "agent_id": "497235295815123",

    "region": "TH", "version_timestamp": 1709807228

    }

    { "qa_id": "123", "agent_id": "497235295815123",

    "region": "TH", "version_timestamp": 1709807228

    }

    { "qa_id": "1234", "agent_id": "497235295815123",

    "region": "TH", "version_timestamp": 1709807228

    }

    数据选择offset=ealiest-offset运行程序得到结果如下

    {"region":"TH","qa_id":"123","count_qa_id":1}

    {"region":"TH","qa_id":"123","count_qa_id":2}

    {"region":"TH","qa_id":"123","count_qa_id":3}

    {"region":"TH","qa_id":"123","count_qa_id":3}

    {"region":"TH","qa_id":"123","count_qa_id":3}

    {"region":"TH","qa_id":"1234","count_qa_id":1}

    这里注意:

    1. 数据都会返回一个聚合
    2. 由于我们rows between 2 preceding and current row所以count_qa_id最多3

    如果此时dwm_qa_score这个topic插入新数据

    { "qa_id": "1234", "agent_id": "497235295815123",

    "region": "TH"

    }

    或者

    { "qa_id": "1234", "agent_id": "497235295815123",

    "region": "TH","version_timestamp": null

    }

    或者

    { "qa_id": "1234", "agent_id": "497235295815123",

    "region": "TH","version_timestamp": 0

    }

    发现flink作业输出record多了一条

    但是在目标kafka:test_window_tab中没有新增结果

    原因是我们插入的新数据中没有version_timestamp这一列为空或为0

    如果往dwm_qa_score这个topic插入新数据:

    {

    "qa_id": "1234",

    "region": "TH",

    "version_timestamp": 1710145110

    }

    则可以看到对应目标kafka:test_window_tab中会新增结果数据

    {"region":"TH","qa_id":"1234","count_qa_id":2}

    如果等一分钟后,再次往dwm_qa_score这个topic插入新数据:

    {

    "qa_id": "1234",

    "region": "TH",

    "version_timestamp": 1710145110

    }

    则在目标kafka:test_window_tab中没有新增结果原因应该数据过期丢弃watermark)

    你可以在一个 SELECT 子句中定义多个 OVER 窗口聚合。然而,对于流式查询,由于目前的限制,所有聚合的 OVER 窗口必须是相同的

    ORDER BY

    OVER 窗口需要数据是有序的。因为表没有固定的排序,所以 ORDER BY 子句是强制的。对于流式查询,Flink 目前只支持 OVER 窗口定义在升序(asc) 时间属性 上。其他的排序不支持。

    PARTITION BY

    OVER 窗口可以定义在一个分区表上。PARTITION BY 子句代表着每行数据只在其所属的数据分区进行聚合。

    范围(RANGE)定义

    范围(RANGE)定义指定了聚合中包含了多少行数据。范围通过 BETWEEN 子句定义上下边界,其内的所有行都会聚合。Flink 只支持 CURRENT ROW 作为上边界。

    有两种方法可以定义范围:ROWS 间隔 和 RANGE 间隔

    RANGE 间隔

    RANGE 间隔是定义在排序列值上的,在 Flink 里,排序列总是一个时间属性。下面的 RANG 间隔定义了聚合会在比当前行的时间属性小 30 分钟的所有行上进行。

    RANGE BETWEEN INTERVAL '30' MINUTE PRECEDING AND CURRENT ROW
    
    
    ROW 间隔

    ROWS 间隔基于计数。它定义了聚合操作包含的精确行数。下面的 ROWS 间隔定义了当前行 + 之前的 10 行(也就是11行)都会被聚合。

    ROWS BETWEEN 10 PRECEDING AND CURRENT ROW
    

    常见错误

    OVER windows' ordering in stream mode must be defined on a time attribute.

     这个报错,是建表的时候需要指定时间语义的字段,WATERMARK 是必须的,而且WATERMARK所用字段必须是order by的时间字段例如下面 order by load_date那么WATERMARK就要load_date生成,即WATERMARK FOR load_date AS load_date - INTERVAL '1' MINUTE

    1. object SqlOverRows02 {
    2. def main(args: Array[String]): Unit = {
    3.     val settings = EnvironmentSettings.newInstance().inStreamingMode().build()
    4.     val tEnv = TableEnvironment.create(settings)
    5.     tEnv.executeSql(
    6. """
    7.         |create table projects(
    8.         |id int,
    9.         |name string,
    10.         |score double,
    11.         |load_date timestamp(3),
    12.         |WATERMARK FOR load_date AS load_date - INTERVAL '1' MINUTE
    13.         |)with(
    14.         |'connector' = 'kafka',
    15.         |'topic' = 'test-topic',
    16.         |'properties.bootstrap.servers' = 'server120:9092',
    17.         |'properties.group.id' = 'testGroup',
    18.         |'scan.startup.mode' = 'latest-offset',
    19.         |'format' = 'csv'
    20.         |)
    21.         |""".stripMargin)
    22.     tEnv.executeSql(
    23. """
    24.         |select
    25.         | name,
    26.         | max(score)
    27.         |   over(partition by name
    28.         |     order by load_date
    29.         |     RANGE BETWEEN INTERVAL '10' SECOND PRECEDING AND CURRENT ROW )max_score,
    30.         | min(score)
    31.         |   over(partition by name
    32.         |     order by load_date
    33.         |     RANGE BETWEEN INTERVAL '10' SECOND PRECEDING AND CURRENT ROW )min_score,
    34.         | current_time
    35.         | from
    36.         | projects
    37.         |""".stripMargin).print()
    38. }
    39. }

    分组聚合:group agg

    Apache Flink 支持标准的 GROUP BY 子句来聚合数据。

    SELECT COUNT(*) FROM Orders GROUP BY order_id

    特点:

    1、聚合函数把多行输入数据计算为一行结果。例如,有一些聚合函数可以计算一组行的 “COUNT”、“SUM”、“AVG”、“MAX”和 “MIN”。

    2、对于流式查询,重要的是要理解 Flink 运行的是连续查询,永远不会终止,会根据其输入表的更新来更新其结果表。对于上述查询,每当有新行插入 Orders 表时,Flink 都会实时计算并输出更新后的结果。

     3、对于流式查询,用于计算查询结果的状态可能无限膨胀。状态的大小取决于分组的数量以及聚合函数的数量和类型。例如:MIN/MAX 的状态是重量级的,COUNT 是轻量级的,因为COUNT只需要保存计数值。

    因此,可以设置table-exec-state-ttl,但是可能会影响查询结果的正确性,因为状态超时会被丢弃。

    注意:

    Flink 对于分组聚合提供了一系列性能优化的方法。更多参见:性能优化,包括MiniBatch 聚合、Local-Global 聚合、拆分 distinct 聚合、在 distinct 聚合上使用 FILTER 修饰符 、MiniBatch Regular Joins

    窗口聚合:window agg

    窗口聚合是通过 GROUP BY 子句定义的,其特征是包含 窗口表值函数 产生的 “window_start” 和 “window_end” 列(必须包含,否则就变成分组聚合等了)。和普通的 GROUP BY 子句一样,窗口聚合对于每个组会计算出一行数据。

    1. SELECT ...
    2. FROM <windowed_table> -- relation applied windowing TVF
    3. GROUP BY window_start, window_end, ...

    窗口聚合不产生中间结果,只在窗口结束产生一个总的聚合结果,另外,窗口聚合会清除不需要的中间状态(watermark超过窗口end+allowlateness,就会销毁窗口)。

    具体例子:

    SELECT window_start, window_end, SUM(price) AS

    total_price

    FROM TABLE(

        TUMBLE(TABLE Bid, DESCRIPTOR(bidtime), INTERVAL '10' MINUTES))

    GROUP BY window_start, window_end;

    +------------------+------------------+-------------+

    |     window_start |       window_end | total_price |

    +------------------+------------------+-------------+

    | 2020-04-15 08:00 | 2020-04-15 08:10 | 11.00 |

    | 2020-04-15 08:10 | 2020-04-15 08:20 | 10.00 |

    +------------------+------------------+-------------+

  • 相关阅读:
    Starrc input data
    从零开始:Django项目的创建与配置指南
    数据分析:从界定问题开始做数据分析?
    【接口幂等性】使用token,Redis保证接口幂等性
    3172:练28.3 短信计费
    OCR文字识别在物联网中的应用
    数据结构 | 二叉树
    (九)mmdetection源码解读:训练过程中训练数据的调用DataLoader
    【Leetcode】377. 组合总和 Ⅳ
    Leetcode_49:字母异位词分组
  • 原文地址:https://blog.csdn.net/oTianShangDiXia/article/details/136606667