gpt4 book ai didi

apache-spark - Dataproc (Spark v2) 中的 Yarn 队列示例

转载 作者:行者123 更新时间:2023-12-02 17:13:37 30 4
gpt4 key购买 nike

有没有人能够在 Dataproc 中的 Spark 2.x 上向 yarn 添加超过默认队列?

在集群创建时失败的尝试:


容量调度器:yarn.scheduler.capacity.root.queues=alpha,beta,default
yarn :yarn.scheduler.capacity.root.queues=alpha,beta,default

此外,在上述任一配置前缀上设置 yarn.scheduler.fair.allow-undeclared-pools=true 以激事件态队列也会失败。

所有情况似乎都会使守护进程失败,导致资源管理器在启动时死机。

最佳答案

每个队列都需要指定一个容量。您的示例所需的属性如下:

capacity-scheduler:yarn.scheduler.capacity.root.queues=alpha,beta,default
capacity-scheduler:yarn.scheduler.capacity.root.alpha.capacity=20
capacity-scheduler:yarn.scheduler.capacity.root.beta.capacity=20
capacity-scheduler:yarn.scheduler.capacity.root.default.capacity=60

其中指定的所有容量总和为根队列资源的 100%。可以在 Hadoop documentation 中找到容量调度程序的全套配置选项。 .

关于apache-spark - Dataproc (Spark v2) 中的 Yarn 队列示例,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47722591/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com