- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我想知道:
最佳答案
在 YARN 术语中,执行器和应用程序主机在“容器”中运行。 Spark 提供 yarn 特定属性,因此您可以运行您的应用程序:
spark.yarn.executor.memoryOverhead
是要为每个执行程序分配的堆外内存量(以兆字节为单位)。这是内存,用于解释 VM 开销、驻留字符串、其他 native 开销等。这往往会随着执行程序的大小(通常为 6-10%)而增长。spark.yarn.driver.memoryOverhead
是集群模式下每个驱动程序分配的堆外内存量(以兆字节为单位),内存属性作为执行程序的 memoryOverhead。所以这不是关于存储数据,它只是 YARN 正常运行所需的资源。
在某些情况下,
例如,如果您启用dynamicAllocation
,您可能希望明确设置这些属性以及执行器的最大数量(spark.dynamicAllocation.maxExecutors
) 可以在这个过程中创建,这很容易通过请求数千个执行器而使 YARN 不堪重负,从而失去已经在运行的执行器。
spark.dynamicAllocation.maxExecutors is set to infinity by default which set the upper bound for the number of executors if dynamic allocation is enabled. [ref.http://spark.apache.org/docs/latest/configuration.html#dynamic-allocation]
增加执行器的目标数量是为了响应等待调度的积压任务。如果调度程序队列在 N 秒内没有被清空,则添加新的执行程序。如果队列再持续 M 秒,则添加更多执行程序,依此类推。每轮添加的数字从上一轮开始呈指数增长,直到达到上限。如上所述,上限基于配置的属性以及当前正在运行和挂起的任务数。
在某些情况下,这可能会导致执行程序数量呈指数增长,从而破坏 YARN 资源管理器。就我而言:
16/03/31 07:15:44 信息 ExecutorAllocationManager:请求 8000 个新的执行器,因为任务积压(新的期望总数将为 40000)
这并未涵盖可以使用这些属性的所有用例,但它给出了有关如何使用这些属性的一般概念。
关于apache-spark - spark.yarn.driver.memoryOverhead 或者spark.yarn.executor.memoryOverhead 是用来存储什么样的数据的?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36474112/
我想知道: spark 使用spark.yarn.driver.memoryOverhead 或spark.yarn.executor.memoryOverhead 来存储什么样的数据? 在哪种情况下
所以问题是在主题中。我想我没有正确理解重新分区的工作。当我说somedataset.repartition(600)时在我的脑海里我希望所有数据都将在 worker 之间按相等的大小进行分配(比如 6
当我在 yarn 上运行 spark 应用程序时,驱动程序和执行程序内存设置为 --driver-memory 4G --executor-memory 2G 然后,当我运行该应用程序时,会抛出异常,
我正在尝试加入两个大型 Spark 数据帧并不断遇到此错误: Container killed by YARN for exceeding memory limits. 24 GB of 22 GB
应该将带YARN的Spark作业中spark.yarn.executor.memoryOverhead的值分配给App还是仅分配给最大值? 最佳答案 spark.yarn.executor.memor
我正在尝试在 EMR 上运行一个 (py)Spark 作业来处理大量数据。目前我的工作失败并显示以下错误消息: Reason: Container killed by YARN for exceedi
我有点难以理解为什么我的 Spark 作业死了,所以我将在这篇文章的底部包含追溯,以便比我更有经验的人可以给我一些见解: ) 据我所知,我的节点快要死了,因为超出了 memoryOverhead。我如
在 AWS Glue 中运行 python 作业时,出现错误: 原因:容器因超出内存限制而被 YARN 杀死。使用了 5.6 GB 的 5.5 GB 物理内存。考虑提升 spark.yarn.exec
当我在 Spark configuration 中搜索堆外时,有两个相关的属性(spark.executor.memoryOverhead 和spark.memory.offHeap.size),我不
我在 yarn 上运行 Spark 。我不明白以下设置有什么区别spark.yarn.executor.memoryOverhead和 spark.memory.offHeap.size .两者似乎都
在 Spark 2.0 中。运行 spark submit 时如何设置 spark.yarn.executor.memoryOverhead。 我知道你可以设置 spark.executor.core
使用以下配置运行具有 1 TB 数据的 spark 作业: 33G 执行器内存 40名执行者 每个执行器 5 个内核 17 克内存开销 此错误的可能原因是什么? 最佳答案 你从哪里得到这个警告?哪些特
我是一名优秀的程序员,十分优秀!