gpt4 book ai didi

scala - Spark 中的循环分区是如何工作的?

转载 作者:行者123 更新时间:2023-12-03 16:51:33 25 4
gpt4 key购买 nike

我很难理解 Spark 中的循环分区。考虑以下示例。我将大小为 3 的 Seq 拆分为 3 个分区:

val df = Seq(0,1,2).toDF().repartition(3)

df.explain

== Physical Plan ==
Exchange RoundRobinPartitioning(3)
+- LocalTableScan [value#42]

现在,如果我检查分区,我会得到:
df
.rdd
.mapPartitionsWithIndex{case (i,rows) => Iterator((i,rows.size))}
.toDF("partition_index","number_of_records")
.show

+---------------+-----------------+
|partition_index|number_of_records|
+---------------+-----------------+
| 0| 0|
| 1| 2|
| 2| 1|
+---------------+-----------------+

如果我对大小为 8 的 Seq 执行相同操作并将其拆分为 8 个分区,则会出现更严重的偏差:
(0 to 7).toDF().repartition(8)
.rdd
.mapPartitionsWithIndex{case (i,rows) => Iterator((i,rows.size))}
.toDF("partition_index","number_of_records")
.show

+---------------+-----------------+
|partition_index|number_of_records|
+---------------+-----------------+
| 0| 0|
| 1| 0|
| 2| 0|
| 3| 0|
| 4| 0|
| 5| 0|
| 6| 4|
| 7| 4|
+---------------+-----------------+

有人可以解释这种行为。据我了解循环分区,所有分区都显示为~相同的大小。

最佳答案

(已检查 Spark 版本 2.1-2.4)

据我所知 ShuffleExchangeExec code ,Spark 尝试直接从原始分区(通过 mapPartitions )对行进行分区,而不会给驱动程序带来任何东西。

逻辑是从随机选择的目标分区开始,然后以循环方法将分区分配给行。请注意,为每个源分区选择了“开始”分区,并且可能会发生冲突。

最终分布取决于许多因素:源/目标分区的数量和数据帧中的行数。

关于scala - Spark 中的循环分区是如何工作的?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54123887/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com