gpt4 book ai didi

apache-spark - 如何在独立主机中并行运行多个Spark应用程序

转载 作者:行者123 更新时间:2023-12-04 03:36:15 25 4
gpt4 key购买 nike

使用Spark(1.6.1)独立母版,我需要在同一个Spark母版上运行多个应用程序。
在第一个提交后提交的所有应用程序,始终保持处于“等待”状态。我还观察到,一次运行可以容纳所有核心工作人员。
我已经尝试通过使用SPARK_EXECUTOR_CORES来限制它,但是当我运行时,它用于yarn config是“standalone master”。我尝试在同一主服务器上运行许多工作程序,但是每次首次提交的应用程序都会消耗所有工作程序。

最佳答案

我在Spark独立集群上遇到相同的问题。

我得到的是,它以某种方式正在利用所有资源来完成一项工作。我们需要定义资源,以便它们也有空间运行其他工作。

以下是我用来提交Spark作业的命令。

bin/spark-submit --class classname --master spark://hjvm1:6066 --deploy-mode cluster  --driver-memory 500M --conf spark.executor.memory=1g --conf spark.cores.max=1 /data/test.jar

关于apache-spark - 如何在独立主机中并行运行多个Spark应用程序,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43516948/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com