gpt4 book ai didi

java - 如何将 Hadoop MapReduce 作业限制在一定数量的节点上?

转载 作者:可可西里 更新时间:2023-11-01 16:31:23 27 4
gpt4 key购买 nike

所以,基本上我有一个包含 4 个数据节点的系统。但是,为了检查我的 hadoop 应用程序的可伸缩性,我想用 1、2 和 4 个节点对其进行测试。那么,如何将 hadoop 使用的节点数限制为 1 或 2 个。我使用的是 hadoop 2.5.1,我没有系统的管理员权限。此外,如何控制 hadoop 用于节点的内核数?

最佳答案

您需要管理员权限才能执行所有操作

如何将 hadoop 使用的节点数限制为 1 或 2 个。

Decommission 2-3个节点

如何控制 hadoop 为节点使用的内核数

在 yarn-site.xml 中设置以下配置,为每个节点分配 8 个 vcore

<property>
<name>yarn.nodemanager.resource.cpu-vcores</name>
<value>8</value>
</property>

同时更新 capacity-scheduler.xml 中的 yarn.scheduler.capacity.resource-calculator因为 DefaultResourceCalculator 只使用内存。

  <property>
<name>yarn.scheduler.capacity.resource-calculator</name>
<value>org.apache.hadoop.yarn.util.resource.DominantResourceCalculator</value>
<description>
The ResourceCalculator implementation to be used to compare
Resources in the scheduler.
The default i.e. DefaultResourceCalculator only uses Memory while
DominantResourceCalculator uses dominant-resource to compare
multi-dimensional resources such as Memory, CPU etc.
</description> </property>

关于java - 如何将 Hadoop MapReduce 作业限制在一定数量的节点上?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29941603/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com