gpt4 book ai didi

python - 如何杀死 Databricks 中的工作

转载 作者:太空宇宙 更新时间:2023-11-04 04:34:00 28 4
gpt4 key购买 nike

我有一个长期运行的工作,如果满足某些条件,我想终止这个工作。这传统上是在 python 中完成的,例如:

if some_condition:
exit('job failed!)

这适用于 python 脚本的传统命令行运行。但是,出于我无法理解的原因,Databricks 不会通过退出终止脚本。

如何编写 Databricks python 脚本,使其在满足特定条件时自动停止执行?

最佳答案

我认为这是由于 Python REPL 在整个堆栈中的位置,导致 exit() 实际上并未退出 Spark 所在的 JVM。您正在寻找退出 spark 作业的异常可能是 SparkException - https://github.com/apache/spark/blob/master/core/src/main/scala/org/apache/spark/SparkException.scala

或者,在 Databricks 中,您可以使用 dbutils.notebook.exit() https://docs.databricks.com/user-guide/notebooks/notebook-workflows.html#notebook-workflows

关于python - 如何杀死 Databricks 中的工作,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52171234/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com