gpt4 book ai didi

apache-spark - Spark 分区大小大于执行程序内存

转载 作者:行者123 更新时间:2023-12-05 04:48:44 25 4
gpt4 key购买 nike

我有四个问题。假设在 spark 中我有 3 个工作节点。每个工作节点有 3 个执行器,每个执行器有 3 个核心。每个执行器有 5 GB 内存。 (总共 6 个执行器,27 个内核和 15GB 内存)。如果发生什么情况:

  • 我有 30 个数据分区。每个分区的大小为 6 GB。最佳情况下,分区数必须等于内核数,因为每个内核执行一个分区/任务(每个分区一个任务)。现在在这种情况下,由于分区大小大于可用的执行程序内存,每个执行程序核心将如何处理分区?注意:我没有调用 cache() 或 persist(),只是在我的 rdd 上应用了一些狭窄的转换,如 map() 和 filter()。

  • spark 会自动尝试将分区存储到磁盘上吗? (我没有调用 cache() 或 persist(),只是在调用操作后发生了转换)

  • 由于我的分区数 (30) 大于可用内核数 (27),因此我的集群最多可以处理 27 个分区,剩下的 3 个分区会怎样?他们会等待被占用的内核被释放吗?

  • 如果我调用存储级别设置为 MEMORY_AND_DISK 的 persist(),那么如果分区大小大于内存,它会将数据溢出到磁盘吗?这些数据将存储在哪个磁盘上?工作节点的外部硬盘?

最佳答案

我会根据我对每个部分的了解来回答,可能会忽略您的一些断言:

我有四个问题。假设在 spark 中我有 3 个工作节点。每个工作节点有 3 个执行器,每个执行器有 3 个核心。每个执行器有 5 GB 内存。 (总共 6 个执行器,27 个内核和 15GB 内存)。如果发生什么情况:>>> 我会使用 1 个执行器,1 个核心。这是普遍接受的范式 afaik。

  • 我有 30 个数据分区。每个分区的大小为 6 GB。最佳情况下,分区数必须等于内核数,因为每个内核执行一个分区/任务(每个分区一个任务)。现在在这种情况下,由于分区大小大于可用的执行程序内存,每个执行程序核心将如何处理分区?注意:我没有调用 cache() 或 persist(),只是在我的 rdd 上应用了一些狭窄的转换,如 map() 和 filter()。 >>> 分区数与核心数相同是不正确的。您可以使用 10 个内核为 1000 个分区提供服务,一次处理一个。如果您有 100K 分区和本地部署怎么办?您不太可能获得 100K 个执行器。 >>> 继续并将驱动程序端收集问题留给一边:您可能没有足够的内存来执行 Executor 上的给定操作; Spark 可以以牺牲处理速度为代价将文件溢出到磁盘。但是,分区大小不应超过最大大小,前段时间已得到加强。使用多核执行器可能会发生故障,即 OOM,也是 GC 问题的结果,这是一个难题。

  • spark 会自动尝试将分区存储到磁盘上吗? (我不是在调用 cache() 或 persist() ,只是在调用操作后发生转换)>>> 如果它可以避免,则不会,但是当内存紧张时,驱逐/溢出到磁盘可能而且将会发生,并且在某些情况下会从源或最后一个检查点重新计算。

  • 由于我的分区数 (30) 大于可用内核数 (27),因此我的集群最多可以处理 27 个分区,剩下的 3 个分区会怎样?他们会等待被占用的核心被释放吗? >>> 他们将在某个时间点由免费的 Executor 提供服务。

  • 如果我调用存储级别设置为 MEMORY_AND_DISK 的 persist(),那么如果分区大小大于内存,它会将数据溢出到磁盘吗?这些数据将存储在哪个磁盘上?工作节点的外部硬盘? >>> 是的,它会溢出到本地文件系统。我认为您可以通过设置为 HDFS 配置,但本地磁盘速度更快。

这是一个有见地的博客:https://medium.com/swlh/spark-oom-error-closeup-462c7a01709d

关于apache-spark - Spark 分区大小大于执行程序内存,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/67926061/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com