gpt4 book ai didi

apache-spark - 如果托管的 Spark session 终止,则获得通知

转载 作者:行者123 更新时间:2023-12-04 01:22:37 25 4
gpt4 key购买 nike

我有一个长期运行的 Python 3.6 应用程序,它在 YARN 上托管 PySpark 2.4.6 session 。我希望能够在 Spark Session 崩溃/死亡时收到通知/调用一个方法,以便我可以自动重启它。

我想主动执行此操作,而不是包装对 session 的每次调用并捕获 session 已关闭的错误,然后让用户等待 session 重新启动。

最佳答案

有一个REST API可用于 yarn 。您可以每隔一段时间查询所有当前正在运行的 applications

http://rm-http-address:port/ws/v1/cluster/apps?states=RUNNING

然后检查您的 PySpark session 是否是结果的一部分。

关于apache-spark - 如果托管的 Spark session 终止,则获得通知,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62412144/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com