gpt4 book ai didi

memory - Spark vs Flink 可用内存不足

转载 作者:IT王子 更新时间:2023-10-28 23:30:53 24 4
gpt4 key购买 nike

我已经构建了一个 Spark 和 Flink k-means 应用程序。我的测试用例是一个 3 节点集群上 100 万个点的集群。

当内存瓶颈开始时,Flink 开始外包到磁盘,工作缓慢但有效。但是,如果内存已满,Spark 会丢失执行器并重新启动(无限循环?)。

我尝试在邮件列表的帮助下自定义内存设置,谢谢。但 Spark 仍然无法正常工作。

是否需要设置任何配置?我的意思是 Flink 在低内存的情况下工作,Spark 也必须能够;还是不行?

最佳答案

我不是 Spark 专家(我是 Flink 贡献者)。据我所知,如果没有足够的主内存,Spark 无法溢出到磁盘。这是 Flink 相对于 Spark 的优势之一。然而,Spark 宣布了一个名为“Tungsten”的新项目,以启用类似于 Flink 的托管内存。我不知道这个功能是否已经可用:https://databricks.com/blog/2015/04/28/project-tungsten-bringing-spark-closer-to-bare-metal.html

有几个关于 Spark 内存不足问题的 SO 问题(互联网搜索“spark out of memory”也会产生很多结果):

spark java.lang.OutOfMemoryError: Java heap space Spark runs out of memory when grouping by key Spark out of memory

也许是其中之一。

关于memory - Spark vs Flink 可用内存不足,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31935299/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com