gpt4 book ai didi

java - 构建 apache Spark 时出错

转载 作者:太空宇宙 更新时间:2023-11-04 13:33:59 25 4
gpt4 key购买 nike

当我构建 Spark 并在 cmd(sbt clean assembly)中编写此命令时,它开始构建然后给我这个错误......那么这里有什么问题?

java.util.concurrent.ExecutionException: java.lang.OutOfMemoryError: Jav

空间

使用 last 获取完整日志。

最佳答案

该错误是由于构建工具mvnsbt没有足够的内存来构建重型 Spark项目

您可以查看 SBT_OPTS 或 MAVEN_OPTS - 取决于您用来构建哪一个。尝试以下其中一项:

09:19:17/web $echo $SBT_OPTS
-Xmx3012m -XX:MaxPermSize=512m -XX:ReservedCodeCacheSize=512m
11:36:50/web $echo $MAVEN_OPTS
-Xmx1280m -XX:MaxPermSize=384m

是的 sbt 需要比 maven 更多的内存

关于java - 构建 apache Spark 时出错,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31882156/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com