gpt4 book ai didi

hadoop - 如何在 Spark2 中启用 spark.history.fs.cleaner?

转载 作者:可可西里 更新时间:2023-11-01 14:55:39 28 4
gpt4 key购买 nike

我的 Spark2 和 Spark 配置都有 spark.history.fs.cleaner.enabled = true。它适用于保持/spark-history/干净,但无法为/spark2-history 做任何事情。关于为什么它不起作用的任何想法?

最佳答案

spark.history.fs.cleaner.enabled Spark 属性控制定期清理磁盘上的事件日志的任务。

在你的问题中它是 spark.history.fs.cleaner=enabled 所以我认为问题出在 = 字符上。


另一个 spark.history.fs.cleaner.interval Spark 属性(默认值为 1d)控制清理器检查要删除的事件日志的频率。确保它足够频繁。

关于hadoop - 如何在 Spark2 中启用 spark.history.fs.cleaner?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47583761/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com