gpt4 book ai didi

hadoop - 运行spark时最大程度地使用Yarn的Vcores

转载 作者:行者123 更新时间:2023-12-02 22:03:04 26 4
gpt4 key购买 nike

我有一个在4个节点上使用Hadoop 2.9的虚拟集群。
每个节点都有16个CPU和126 GB内存。

对于更多我尝试将yarn.scheduler.minimum-allocation-vcores设置为不同于1的东西,当我运行spark-submit声明yarn为master时,每个容器仅使用1个vcore。

有没有办法覆盖它?

谢谢!

最佳答案

使用spark.executor.cores。从docs:

The number of cores to use on each executor. In standalone and Mesos coarse-grained modes, setting this parameter allows an application to run multiple executors on the same worker, provided that there are enough cores on that worker. Otherwise, only one executor per application will run on each worker.



默认情况下是:

1 in YARN mode

关于hadoop - 运行spark时最大程度地使用Yarn的Vcores,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48158695/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com