gpt4 book ai didi

apache-spark - 出现错误时如何使 Spark 应用程序失败

转载 作者:行者123 更新时间:2023-12-04 04:06:45 25 4
gpt4 key购买 nike

我想让我的 Spark 应用程序失败,同时遇到错误(比如我的文件行数少于 10,这是我的业务逻辑的逻辑错误)。我正在做一个 System.exit(20),但是当我在 yarn (yarn application -status) 中检查应用程序的状态时,它显示成功,我想看到 failed 而不是。我正在使用 shell 脚本使事情自动化,但这种行为对我来说是一个障碍。

请你帮帮我,我怎么能优雅地完全失败我的 Spark 应用程序,这样 yarn 应用程序状态就会失败。

注意:我在 yarn 集群模式下运行 spark

谢谢,

最佳答案

如果你的代码是 Java,你可以调用方法 stop()在您的 JavaSparContex 上,像这样:

SparkConf sparkConf = new SparkConf(); 
JavaSparkContext javaSparkContext = new JavaSparkContext(sparkConf);

javaSparkContext.sc().taskScheduler().stop();

关于apache-spark - 出现错误时如何使 Spark 应用程序失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41134382/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com