gpt4 book ai didi

apache-spark - Spark Master 填充临时目录

转载 作者:行者123 更新时间:2023-12-05 05:23:40 24 4
gpt4 key购买 nike

我有一个简单的 Spark 应用程序,它读取一些数据,计算一些指标,然后保存结果(输入和输出是 Cassandra 表)。这段代码定期(即每分钟)运行。

我有一个 Cassandra/Spark (Spark 1.6.1),几分钟后,我在 Spark 集群的主节点上的临时目录被填满,主节点拒绝运行任何更多的作业。我正在使用 spark-submit 提交作业。

我错过了什么?如何确保主节点删除临时文件夹?

最佳答案

Spark 使用此目录作为暂存空间并在其中输出临时映射输出文件。这是可以改变的。您应该查看 spark.local.dir

关于apache-spark - Spark Master 填充临时目录,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37012644/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com