gpt4 book ai didi

hadoop - pig 忽略 maxReducers 并使用 mapred.reduce.tasks 代替

转载 作者:可可西里 更新时间:2023-11-01 14:59:26 25 4
gpt4 key购买 nike

我的 pig 脚本生成了大约 5 个 MR 作业。当它开始执行时,pig 打印:

 BytesPerReducer=1000000000 maxReducers=999

并继续创建一个只有一个 reducer 的 MR 作业:

 Neither PARALLEL nor default parallelism is set for this job. Setting number of reducers to 1

但是,对于从同一脚本生成的后续作业,它不会打印此行,并且在其中一个中创建 mapred.reduce.tasks reducers,在我的集群中是 4992 .

这是一个已知错误吗?或者我在这里遗漏了什么?

最佳答案

在你的 pig 脚本中使用它:

SET pig.exec.reducers.max 4000

Read this for more information.

关于hadoop - pig 忽略 maxReducers 并使用 mapred.reduce.tasks 代替,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14921821/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com