gpt4 book ai didi

java - Apache Spark : java. lang.OutOfMemoryError:Java 堆空间问题

转载 作者:行者123 更新时间:2023-12-01 16:14:30 24 4
gpt4 key购买 nike

当我每第二次运行同一个 Spark 程序时,我都会遇到 java.lang.OutOfMemoryError: Java Heap Space 问题。

这是一个场景:

当我执行spark-submit并第一次运行spark程序时,它给了我正确的输出并且一切都很好。当我再次执行相同的 spark-submit 时,它会抛出 java.lang.OutOfMemoryError: Java Heap Space 异常。

什么时候才能再次发挥作用?

如果我在通过执行 - /proc/sys/vm/drop_caches 清除 Linux 缓存后运行相同的 spark-submit ,它会再次成功运行一次。

我尝试设置所有可能的 Spark 配置,例如内存开销、驱动器内存、执行器内存等。

知道这里发生了什么吗?这确实是 Spark 代码的问题,还是由于某些 Linux 机器设置或集群配置方式而发生的?

谢谢。

最佳答案

如果使用df.persist()df.cache(),那么您也应该使用df.unpersist()方法,还有 sqlContext.clearCache() 可以清除所有内容。

关于java - Apache Spark : java. lang.OutOfMemoryError:Java 堆空间问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62440376/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com