gpt4 book ai didi

hadoop - 如何根据集群中处理节点的数量在运行时设置reducer的数量

转载 作者:可可西里 更新时间:2023-11-01 15:18:58 26 4
gpt4 key购买 nike

有没有办法根据处理节点的总数在运行时设置此信息?

job.setNumReduceTasks( NO_OF_REDUCERS );

所以,假设我在一台刚刚配置了节点的个人笔记本电脑上编译我的代码,那么它应该将 reducers 的数量设置为 1。但是,如果我为一个真正的大型集群编译它,那么它应该相应地设置。

最佳答案

查看org.apache.hadoop.mapreduce.ClusterMetrics ;应该包含获取您正在寻找的信息的功能。我把它记在笔记里是为了别的;但这应该提供您正在寻找的集群信息以及一些其他详细信息。

我正在研究它的 reducer 数量,并计划使用 getReduceSlotCapacity 函数来了解该作业可以消耗多少 reducer。

第一个

关于hadoop - 如何根据集群中处理节点的数量在运行时设置reducer的数量,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/9551767/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com