gpt4 book ai didi

hadoop - 超过 JobConf 大小

转载 作者:可可西里 更新时间:2023-11-01 14:50:21 25 4
gpt4 key购买 nike

我有一个使用大量输入路径的 map reduce 作业。因此,我在开始工作时遇到了这个异常:

超过最大 jobconf 大小:6154861 限制:5242880

我意识到最大 jobconf 大小由系统属性控制:

mapred.user.jobconf.limit 默认为 5 MB。

除了增加此限制之外,还有其他方法可以规避此问题吗?

最佳答案

除非您准备好更改源本身,否则我不这么认为。根据 JobTracker 的来源,如果用户未明确指定,这是允许的最大值。

/** the maximum allowed size of the jobconf **/
long MAX_JOBCONF_SIZE = 5*1024*1024L;

/** the config key for max user jobconf size **/
public static final String MAX_USER_JOBCONF_SIZE_KEY = "mapred.user.jobconf.limit";

如果您未通过 mapred.user.jobconf.limit 指定任何值,则将使用 5*1024*1024L :

MAX_JOBCONF_SIZE = conf.getLong(MAX_USER_JOBCONF_SIZE_KEY, MAX_JOBCONF_SIZE);

关于hadoop - 超过 JobConf 大小,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/17076249/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com