gpt4 book ai didi

python - 超时错误: Error with 400 StatusCode: "requirement failed: Session isn' t active.”

转载 作者:太空宇宙 更新时间:2023-11-03 21:35:18 24 4
gpt4 key购买 nike

我使用 Zeppelin v0.7.3 笔记本来运行 Pyspark 脚本。在一个段落中,我正在运行脚本将数据从 dataframe 写入 Blob 文件夹中的 parquet 文件。文件按国家/地区进行分区。数据帧的行数为99,452,829。当脚本达到1小时时,遇到错误 -

Error with 400 StatusCode: "requirement failed: Session isn't active.

我的笔记本的默认解释器是jdbc。我已阅读有关 timeoutlifecyclemanager 的内容,并在解释器设置中添加了 zeppelin.interpreter.lifecyclemanager.timeout.threshold 并将其设置为 7200000 但仍然遇到在处理完成 33% 达到 1 小时运行时后出现错误。

我在 1 小时超时后检查了 Blob 文件夹,parquet 文件已成功写入 Blob,这些文件确实按国家/地区进行了分区。

我正在运行的将 DF 写入 parquet Blob 的脚本如下:

trdpn_cntry_fct_denom_df.write.format("parquet").partitionBy("CNTRY_ID").mode("overwrite").save("wasbs://tradepanelpoc@blobasbackupx2066561.blob.core.windows.net/cbls/hdi/trdpn_cntry_fct_denom_df.parquet")

这是 Zeppelin 超时问题吗?怎样才能延长1小时以上的运行时间呢?感谢您的帮助。

最佳答案

来自This stack overflow question's answer which worked for me

从输出来看,如果您的应用程序未以 FAILED 状态完成,这听起来像是 Livy 超时错误:您的应用程序可能花费比 Livy session 定义的超时时间(默认为 1 小时)更长的时间,因此即使尽管 Spark 应用程序成功,但如果应用程序花费的时间超过 Livy session 的超时时间,您的笔记本电脑仍将收到此错误。

如果是这种情况,解决方法如下:

1. edit the /etc/livy/conf/livy.conf file (in the cluster's master node)
2. set the livy.server.session.timeout to a higher value, like 8h (or larger, depending on your app)
3. restart Livy to update the setting: sudo restart livy-server in the cluster's master
4. test your code again

关于python - 超时错误: Error with 400 StatusCode: "requirement failed: Session isn' t active.”,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53275693/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com