gpt4 book ai didi

apache-spark - 在Kubernetes执行程序清理上 Spark

转载 作者:行者123 更新时间:2023-12-02 11:56:38 26 4
gpt4 key购买 nike

我在K8S上使用Spark运行一些工作,有时我的执行者会在工作中死亡。每当发生这种情况时,驱动程序会立即删除发生故障的Pod,并生成一个新Pod。

有没有办法阻止Spark删除终止的执行程序Pod?这将使调试故障变得容易得多。

现在,我已经将所有Pod的日志收集到另一个存储中,以便可以查看日志。但是通过日志查询每个Pod相当麻烦,我将看不到它们的K8S元数据。

最佳答案

此设置已添加到SPARK-25515中。遗憾的是,它不适用于当前发布的版本,但应在Spark 3.0.0中提供。

关于apache-spark - 在Kubernetes执行程序清理上 Spark ,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58414655/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com