• spark中的shuffle简述 那些会导致shuffle的算子


    shuffle操作说白了就是重分区操作

    在Apache Spark中,任务之间的依赖关系主要分为两类:宽依赖(Wide Dependency)和窄依赖(Narrow Dependency)。这两者之间的主要区别在于它们对任务之间数据的依赖性以及执行方式的不同。

    窄依赖意味着任务可以在内存中的管道上迭代并行运行,而不需要等待前一阶段的运行结果。相比之下,宽依赖涉及到shuffle操作,需要等待上一阶段的运行结果才能继续执行程序。


    理解和掌握宽窄依赖对于优化Spark作业的性能至关重要。在设计Spark作业时,尽量使用窄依赖,以减少Shuffle的开销。通过合理的分区策略和选择适当的转换操作,可以有效地减少宽依赖的出现。

    那么现在让我们来介绍一下spark中那些会导致shuffle的算子:
     

    🧨
    1、repartition类的操作:比如repartition、repartitionAndSortWithinPartitions、coalesce等

    重分区: 一般会shuffle,因为需要在整个集群中,对之前所有的分区的数据进行随机,均匀的打乱,然后把数据放入下游新的指定数量的分区内

    2、byKey类的操作:比如reduceByKey、groupByKey、sortByKey等

    byKey类的操作:因为你要对一个key,进行聚合操作,那么肯定要保证集群中,所有节点上的,相同的key,一定是到同一个节点上进行处理

    3、join类的操作:比如join、cogroup等join类的操作:两个rdd进行join,就必须将相同join key的数据,shuffle到同一个节点上,然后进行相同key的两个rdd数据的笛卡尔乘积

    理解了上述内容,现在让我们来上机实践一下:

    这里我们使用 toDebugString()  这个方法 返回该RDD及其用于调试的递归依赖项的描述。

    代码如下 这里我们先用repartition算子举例:

    1. from pyspark import SparkContext
    2. # repartition 算子
    3. data = [2, 3, 1, 4, 5, 6, 7, 8, 9, 10]
    4. rdd = sc.parallelize(data, 3)
    5. repartitioned_rdd = rdd.repartition(5)
    6. print(repartitioned_rdd.glom().collect())
    7. print(repartitioned_rdd.toDebugString().decode())

    我们来看看运行结果:

    可以发现这段程序经历了shuffle

    现在让我们将上述算子都运行一下,看看是否都经历了shuffle 

    代码如下,各位读者可自行实验:

    1. from pyspark import SparkContext
    2. sc = SparkContext("local", "apple1")
    3. # 那些会导致shuffle的算子
    4. # =======================================================================================
    5. # 1、分区类算子
    6. # TODO
    7. # repartition 算子
    8. data = [2, 3, 1, 4, 5, 6, 7, 8, 9, 10]
    9. rdd = sc.parallelize(data, 3)
    10. repartitioned_rdd = rdd.repartition(5)
    11. print(repartitioned_rdd.glom().collect())
    12. print(repartitioned_rdd.toDebugString().decode())
    13. # TODO
    14. # repartitionAndSortWithinPartitions 它会在每个分区内对数据进行排序 分区先排序 提高性能嘛
    15. # data = [(1, "apple"), (6, "banana"), (3, "banana"), (2, "orange"), (4, "grape")]
    16. # rdd = sc.parallelize(data, 2) # 创建一个有2个分区的键值对RDD
    17. #
    18. # repartitioned_sorted_rdd = rdd.repartitionAndSortWithinPartitions(numPartitions=2)
    19. # # print(repartitioned_sorted_rdd.glom().collect())
    20. # print(repartitioned_sorted_rdd.toDebugString().decode())
    21. # TODO
    22. # coalesce 减少分区 可以设置是否进行shuffle
    23. # data = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]
    24. # rdd = sc.parallelize(data, 5) # 创建一个有5个分区的RDD
    25. #
    26. # coalesced_rdd = rdd.coalesce(2, shuffle=True) # 将RDD合并到2个分区
    27. # # print(coalesced_rdd.glom().collect())
    28. # print(coalesced_rdd.toDebugString().decode())
    29. # =======================================================================================
    30. # TODO
    31. # reduceByKey
    32. # data = ["apple", "banana", "orange", "banana", "grape", "apple", "orange"]
    33. # rdd = sc.parallelize(data)
    34. # rdd = rdd.map(lambda x: (x, 1))
    35. # rdd2 = rdd.reduceByKey(lambda x, y: x+y)
    36. # # print(rdd2.collect())
    37. # print(rdd2.toDebugString().decode() + '\n')
    38. # TODO
    39. # groupByKey
    40. # rdd3 = rdd.groupByKey()
    41. # print(rdd3.toDebugString().decode() + '\n')
    42. # TODO
    43. # sortByKey 当分区大于1时才有shuffle 因为sortbykey涉及重分区 按照key分组 然后排序
    44. # 如果 RDD 使用了默认的分区器(即 HashPartitioner),并且你要求对 key 进行排序,那么就会发生 shuffle。
    45. # 这是因为默认情况下,HashPartitioner 使用 key 的 hash 值来确定数据所在的分区,
    46. # 这可能导致相同 key 的数据散布在不同的分区中,而进行排序时需要将相同 key 的数据聚合在一起。
    47. # rdd = sc.parallelize(data, 2)
    48. #
    49. # rdd = rdd.map(lambda x: (x, 1))
    50. # print(rdd.glom().collect())
    51. #
    52. # rdd4 = rdd.sortByKey()
    53. # print(rdd4.glom().collect())
    54. # print(rdd4.toDebugString().decode() + '\n')
    55. # =======================================================================================
    56. # TODO
    57. # join 操作
    58. # rdd1 = sc.parallelize([(1, "apple"), (2, "banana"), (3, "orange")])
    59. # rdd2 = sc.parallelize([(1, 5), (2, 3), (3, 8), (1, 6)])
    60. #
    61. # joined_rdd = rdd1.join(rdd2)
    62. # # print(joined_rdd.collect())
    63. # print(joined_rdd.toDebugString().decode() + '\n')
    64. # TODO
    65. # cogroup
    66. # rdd1 = sc.parallelize([(1, "apple"), (2, "banana"), (3, "orange")])
    67. # rdd2 = sc.parallelize([(1, 5), (2, 3), (3, 8), (1, 9)])
    68. #
    69. # cogrouped_rdd = rdd1.cogroup(rdd2)
    70. # result = cogrouped_rdd.collect()
    71. # # map 函数: map 是 Python 内置函数,用于对一个可迭代对象的每个元素应用一个指定的函数。在这里,map 的目标是 list 函数。
    72. # # list 函数: list 是 Python 内置函数,用于将一个可迭代对象转换为列表。
    73. # for k, v in result:
    74. # print(k, tuple(map(list, v)))
    75. # print(cogrouped_rdd.toDebugString().decode() + '\n')

  • 相关阅读:
    【Delphi】使用TWebBrowser执行JavaScript命令传入JSON参数执行出错解决方案
    CUDA的骨骼化加速
    数据结构【栈】
    Flask 学习-25.passlib 对密码加密与验证
    ETCD快速入门-01 ETCD概述
    PyCharm 2022.2 发布了,支持最新 Python 3.11 和 PyScript 框架!
    s AbortController 接口取消多次请求 取消上次请求
    【网络编程】Linux网络编程基础与实战第三弹——网络名词术语
    Golang数组和slice
    利用Abp过滤器实现业务数据“回收站”功能
  • 原文地址:https://blog.csdn.net/m0_55685698/article/details/133787221