gpt4 book ai didi

Java Spark 溢出内存映射 OutOfMemoryError 错误

转载 作者:可可西里 更新时间:2023-11-01 14:53:10 26 4
gpt4 key购买 nike

我正在运行以下代码(a 包含大约 10000 行):

IndexedRowMatrix qTmp = new IndexedRowMatrix(a.rows());
IndexedRowMatrix qTmpT = qTmp.toCoordinateMatrix().transpose().toIndexedRowMatrix();

我收到以下错误:

15/06/19 10:08:52 INFO ExternalAppendOnlyMap: Thread 66 spilling in-memory map of 24.8 MB to disk (1 time so far)
15/06/19 10:08:54 INFO ExternalAppendOnlyMap: Thread 66 spilling in-memory map of 24.8 MB to disk (2 times so far)
15/06/19 10:08:57 INFO ExternalAppendOnlyMap: Thread 66 spilling in-memory map of 24.8 MB to disk (3 times so far)
15/06/19 10:09:02 ERROR Executor: Exception in task 0.0 in stage 9.0 (TID 9)
java.lang.OutOfMemoryError: Java heap space

我也尝试过使用各种参数调整内存:

SparkConf conf = new SparkConf();
conf.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer");
conf.setAppName("test");
conf.setMaster("local[2]");
conf.set("spark.executor.memory", "6g");
conf.set("spark.driver.maxResultSize", "1g");
conf.set("spark.shuffle.spill", "false");
conf.set("spark.storage.memoryFraction", "0.3");
conf.set("spark.eventLog.enabled", "false");
conf.set("driver-memory", "4g")`;
JavaSparkContext sc = new JavaSparkContext(conf);

我一直收到这种溢出错误是有原因的吗?

最佳答案

您应该使用覆盖的 java 选项运行您的应用程序。

使用 -Xms=[size] -Xmx -XX:MaxPermSize=[size] -XX:MaxNewSize=[size] 启动程序

例如-

-Xms512m -Xmx1152m -XX:MaxPermSize=256m -XX:MaxNewSize=256m

关于Java Spark 溢出内存映射 OutOfMemoryError 错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30931976/

26 4 0
文章推荐: html - 带白色边框的三 Angular 形
文章推荐: hadoop - 在 Hadoop 集群中为 MapReduce 作业部署 JAR
文章推荐: javascript - 将 contenteditable 和覆盖换行符设置为
而不是
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com