gpt4 book ai didi

hadoop - Yarn 在一个节点上分配了太多的 vcores

转载 作者:可可西里 更新时间:2023-11-01 16:52:14 31 4
gpt4 key购买 nike

我在 yarn-site.xml 中将我的最大分配 vcores 设置为 1,并将物理核心数设置为 2。所有节点都相同。然而,有时,YARN 会为一个节点分配 3 个容器。它报告该节点上有 -1 个 vcores 可用。最终发生的是 nodemanager 在该节点上关闭,作业失败。如何防止 YARN 过度分配 vcores?还有其他节点可用,使用了 0 个 vcore。我已经指定了可以分配的最小和最大 vcore 数量以及每个节点的物理 vcore 数量。当我查看 YARN 报告时,一切正常。

最佳答案

answer是你要找的。不幸的是,默认的 YARN 行为似乎是在进行这些分配时只考虑内存。幸运的是,这可以更改,请参阅链接的答案。

我觉得 YARN 上的所有文档都被骗了,因为我发现没有任何内容提到需要进行此更改,但是有很多关于如何设置 vcore 值的博客/帖子。

关于hadoop - Yarn 在一个节点上分配了太多的 vcores,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32090044/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com