gpt4 book ai didi

hadoop - 如何让 shark/spark 清除缓存?

转载 作者:可可西里 更新时间:2023-11-01 14:08:25 62 4
gpt4 key购买 nike

当我运行我的 shark 查询时,内存被储存在主内存中这是我的 top 命令结果。


内存:总计 74237344k,已使用 70080492k,空闲 4156852k,缓冲区 399544k交换:总共 4194288k,已使用 480k,免费 4193808k,缓存 65965904k


即使我杀死/停止 shark、spark、hadoop 进程,这也不会改变。目前,清除缓存的唯一方法是重启机器。

有没有人遇到过这个问题?是 spark/shark 中的某些配置问题还是已知问题?

最佳答案

删除所有缓存数据:

sqlContext.clearCache()

来源:https://spark.apache.org/docs/2.0.1/api/java/org/apache/spark/sql/SQLContext.html

如果你想从缓存中删除特定的 Dataframe:

df.unpersist()

关于hadoop - 如何让 shark/spark 清除缓存?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20517723/

62 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com