gpt4 book ai didi

apache-spark - 限制 Spark 应用程序获取 YARN 集群中的所有资源

转载 作者:行者123 更新时间:2023-12-04 01:07:45 24 4
gpt4 key购买 nike

我们(一个工程团队)正在使用 YARNSpark 运行一个 EMR 集群。通常发生的情况是,当一个用户提交大量内存密集型作业时,它会占用所有 YARN 可用内存,然后所有后续用户提交的作业都必须等待内存被清除(我知道 autoscaling 将在一定程度上解决这个问题,我们正在研究这个问题,但我们希望避免单个用户占用所有内存,即使集群自动缩放已达到其最大限制)。

有没有一种方法可以配置 YARN,使任何应用程序(Spark 或其他)占用的内存不会超过可用内存的 75%?

谢谢

最佳答案

根据documentation ,您可以使用参数管理分配给执行程序的内存量:spark.executor.memory

关于apache-spark - 限制 Spark 应用程序获取 YARN 集群中的所有资源,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41252060/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com