gpt4 book ai didi

apache-spark - yarn 上的 Spark 流 - 容器运行超出物理内存限制

转载 作者:行者123 更新时间:2023-12-03 18:03:15 31 4
gpt4 key购买 nike

我在 Yarn 上运行了一个 Spark 流应用程序,它运行了好几天,之后我遇到了一个问题,来自以下 yarn 列表的错误消息:

Application application_1449727361299_0049 failed 2 times due to AM Container for appattempt_1449727361299_0049_000002 exited with exitCode: -104
For more detailed output, check application tracking page:https://sccsparkdev03:26001/cluster/app/application_1449727361299_0049Then, click on links to logs of each attempt.
Diagnostics: Container [pid=25317,containerID=container_1449727361299_0049_02_000001] is running beyond physical memory limits. Current usage: 3.5 GB of 3.5 GB physical memory used; 5.3 GB of 8.8 GB virtual memory used. Killing container.

这是我的内存配置:
spark.driver.memory = 3g
spark.executor.memory = 3g
mapred.child.java.opts -Xms1024M -Xmx3584M
mapreduce.map.java.opts -Xmx2048M
mapreduce.map.memory.mb 4096
mapreduce.reduce.java.opts -Xmx3276M
mapreduce.reduce.memory.mb 4096

这个OOM错误很奇怪,因为我没有在内存中维护任何数据,因为它是一个流程序,有没有人遇到过同样的问题?或者谁知道是什么原因造成的?

最佳答案

检查正在运行它的盒子/虚拟机实例上的内存。我的猜测是主机是红色的。

...由于似乎过度分配内存。

你认为流媒体在哪里执行?无论您是否在那里存放任何东西?是的。内存。也不是猫或跳舞的维京人(添加“e”)。

你猜怎么着?您正在分配 7 GB 的内存,该内存在物理内存上比虚拟内存更重要。

  • 检查您的日志记录,因为这会有类似的构建时间。
  • spark.yarn.am.memory 值是什么?
  • 平衡您的 VM 和容器内存分配 :)

  • 另一个想法是调整 memoryOverhead,使物理和虚拟可以更成比例

    关于apache-spark - yarn 上的 Spark 流 - 容器运行超出物理内存限制,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34259202/

    31 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com