gpt4 book ai didi

java - 错误 : Split metadata size exceeded 10000000

转载 作者:IT王子 更新时间:2023-10-29 00:33:21 25 4
gpt4 key购买 nike

当我尝试在 hadoop 上运行作业时,出现错误 The job initialization failed: java.io.IOException: Split metadata size exceeded 10000000.

Internet 搜索指示将 mapred-site.xml 文件中的 mapreduce.job.split.metainfo.maxsize 选项更改为 -1 的服务。但您无法通过 Google 集群中的文件编辑此选项。

我还尝试使用 -Dmapreduce.job.split.metainfo.maxsize = -1 通过命令行设置选项,但无济于事。

我尝试使用以下方法在源代码中放置一个选项:

Configuration config = new Configuration ();
Config.set ("mapreduce.job.split.metainfo.maxsize", "-1");

但它仍然犯同样的错误。替代方案?

最佳答案

我遇到了同样的问题。两条评论:

我不确定 -Dmapreduce.job.split.metainfo.maxsize = -1 是否可以没有空格,但我不认为空格是允许的。

其次,看起来您正在将其设置在您的工作未使用的配置中。尝试使用您的作业正在使用的配置 --

job.getConfiguration.set("mapreduce.job.split.metainfo.maxsize", "-1");

这对我有用。祝你好运。

关于java - 错误 : Split metadata size exceeded 10000000,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41122217/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com