gpt4 book ai didi

hadoop - yarn - spark 并行作业

转载 作者:可可西里 更新时间:2023-11-01 15:55:04 24 4
gpt4 key购买 nike

我制作了只有 1 个工作节点的 yarn-cluster,当我提交我的 spark 应用程序作业时它似乎工作正常。当我提交多个作业时,作业在 hadoop 队列中并一个接一个地处理提交的申请。我想并行处理我的申请,而不是逐一处理。这有什么配置吗?或者无法在 yarn 上做到这一点?

最佳答案

默认情况下,Yarn 会一个一个地提交作业。要提交多个作业,您可以更改执行程序核心的数量:

spark-submit class /jar --executor-memory 2g --num-executors 15 --executor-cores 3 --master yarn --deploy-mode cluster 

您还可以在 yarn-site.xml 中更改此属性

关于hadoop - yarn - spark 并行作业,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45207312/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com