gpt4 book ai didi

Hadoop YARN - 如何限制请求的内存?

转载 作者:可可西里 更新时间:2023-11-01 14:19:10 24 4
gpt4 key购买 nike

尝试从 hadoop-mapreduce-examples-2.2.0.jar 运行 PI 示例时,出现以下异常:

org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.yarn.exceptions.InvalidResourceRequestException): Invalid resource request, requested memory < 0, or requested memory > max configured, requestedMemory=1536, maxMemory=512

不确定 1536 来自哪里,但 512 是我在 mapred-site.xml 中为子任务设置的最大堆大小:

<property>
<name>mapreduce.map.memory.mb</name>
<value>512</value>
</property>
<property>
<name>mapreduce.map.java.opts</name>
<value>-Xmx410m</value>
</property>
<property>
<name>mapreduce.reduce.memory.mb</name>
<value>512</value>
</property>
<property>
<name>mapreduce.reduce.java.opts</name>
<value>-Xmx410m</value>
</property>

确定 map/reduce 任务大小的正确方法是什么?

最佳答案

512是yarn-site.xmlyarn.scheduler.maximum-allocation-mb的默认值,1536是yarn的默认值.app.mapreduce.am.resource.mb mapred-site.xml 中的参数。

确保allocation-mb > app.mapreduce.am.resource.mb,就可以了。

关于Hadoop YARN - 如何限制请求的内存?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24233963/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com