gpt4 book ai didi

java - 当我试图将整个文件夹作为 Mapreduce 程序的输入时,我正面临 "Java heap space error"

转载 作者:可可西里 更新时间:2023-11-01 14:58:23 25 4
gpt4 key购买 nike

当我尝试通过将整个文件夹作为 MR 作业的输入来运行 mapreduce 程序时,我遇到了“Java 堆空间错误”。当我将单个文件作为 MR 作业的输入时,我没有遇到任何错误。作业已成功运行。

Changes I tried in hadoop-env.sh file:
=====================================
I had increased the memory size from 1024 to 2048MB
export HADOOP_CLIENT_OPTS="-Xmx2048m $HADOOP_CLIENT_OPTS"

Changes in mapred-site.xml:
===========================
<property>
<name>mapred.child.java.opts</name>
<value>-Xmx2048m</value>
</property>

通过对这些文件进行更改,我仍然面临“Java 堆空间错误”。

任何人都可以就这个问题向我提出建议......

最佳答案

你可以用这样的东西为你的工作打开 HPROF 分析,

conf.setBoolean("mapred.task.profile", true);conf.set("mapred.task.profile.params", "-agentlib:hprof=cpu=samples,"+
"heap=sites,depth=6,force=n,thread=y,verbose=n,file=%s");
conf.set("mapred.task.profile.maps", "0-2");conf.set("mapred.task.profile.reduces", "0-2");

这将帮助您诊断耗尽堆的原因。请参阅“Hadoop 权威指南”第 178-181 页中的更多详细信息。

关于java - 当我试图将整个文件夹作为 Mapreduce 程序的输入时,我正面临 "Java heap space error",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29889715/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com