gpt4 book ai didi

shell - Spark 作业继续运行

转载 作者:行者123 更新时间:2023-12-04 10:48:08 26 4
gpt4 key购买 nike

我已经在 ambari-server 中提交了我的 Spark 作业
使用以下命令..

  ./spark-submit --class  customer.core.classname --master yarn --numexecutors 2 --driver-memory 2g --executor-memory 2g --executor-cores 1 /home/hdfs/Test/classname-0.0.1-SNAPSHOT-SNAPSHOT.jar newdata host:6667

它工作正常......

但是,如果我们关闭命令提示符或尝试终止作业,它如何继续运行,它必须继续运行。

任何帮助表示赞赏。

最佳答案

您可以通过几种方式实现这一目标

1)您可以使用nohup在后台运行spark提交驱动程序进程
例如:

nohup  ./spark-submit --class  customer.core.classname \
--master yarn --numexecutors 2 \
--driver-memory 2g --executor-memory 2g --executor-cores 1 \
/home/hdfs/Test/classname-0.0.1-SNAPSHOT-SNAPSHOT.jar \
newdata host:6667 &

2)在部署模式下作为集群运行,以便驱动进程在不同的节点上运行。

关于shell - Spark 作业继续运行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37201918/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com