gpt4 book ai didi

java - Hadoop MultipleOutputs.addNamedOutput 抛出 "cannot find symbol"

转载 作者:可可西里 更新时间:2023-11-01 16:24:10 25 4
gpt4 key购买 nike

我正在使用 Hadoop 0.20.203.0。我想输出到两个不同的文件,所以我试图让 MultipleOutputs 工作。

这是我的配置方法:

public static void main(String[] args) throws Exception {
Configuration conf = new Configuration();

String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
if (otherArgs.length != 2) {
System.err.println("Usage: indycascade <in> <out>");
System.exit(2);
}
Job job = new Job(conf, "indy cascade");
job.setJarByClass(IndyCascade.class);
job.setMapperClass(ICMapper.class);
job.setCombinerClass(ICReducer.class);
job.setReducerClass(ICReducer.class);

TextInputFormat.addInputPath(job, new Path(otherArgs[0]));
TextOutputFormat.setOutputPath(job, new Path(otherArgs[1]));

MultipleOutputs.addNamedOutput(conf, "sql", TextOutputFormat.class, LongWritable.class, Text.class);

job.waitForCompletion(true);
System.exit(job.waitForCompletion(true) ? 0 : 1);
}

但是,这不会编译。有问题的行是 MultipleOutputs.addNamedOutput(...),它会引发“找不到符号”错误。

isaac/me/saac/i/IndyCascade.java:94: cannot find symbol
symbol : method addNamedOutput(org.apache.hadoop.conf.Configuration,java.lang.String,java.lang.Class<org.apa che.hadoop.mapreduce.lib.output.TextOutputFormat>,java.lang.Class<org.apache.hadoop.io.LongWritable>,java.lang.Class<org.apache.hadoop.io.Text>)
location: class org.apache.hadoop.mapred.lib.MultipleOutputs
MultipleOutputs.addNamedOutput(conf, "sql", TextOutputFormat.class, LongWritable.class, Text.class);

当然,我尝试按照 API 的要求使用 JobConf 而不是 Configuration,但这会导致同样的错误。此外,JobConf 已弃用。

如何让 MultipleOutputs 工作?这甚至是正确的类吗?

最佳答案

您正在混合使用新旧 API 类型:

您正在使用旧 API org.apache.hadoop.mapred.lib.MultipleOutputs:

location: class org.apache.hadoop.mapred.lib.MultipleOutputs

使用新的 API org.apache.hadoop.mapreduce.lib.output.TextOutputFormat:

symbol  : method addNamedOutput(org.apache.hadoop.conf.Configuration,java.lang.String,java.lang.Class<org.apa che.hadoop.mapreduce.lib.output.TextOutputFormat>,java.lang.Class<org.apache.hadoop.io.LongWritable>,java.lang.Class<org.apache.hadoop.io.Text>)

使 API 一致,你应该没问题

编辑: 事实上 0.20.203 没有用于新 API 的 MultipleOutputs 端口,因此您必须使用旧的 api,在线查找新的 API 端口 Cloudera- 0.20.2+320 ), 或者自己移植

此外,您应该查看 ToolRunner 类来执行您的作业,它将消除显式调用 GenericOptionsParser 的需要:

public static class Driver extends Configured implements Tool {
public static void main(String[] args) throws Exception {
System.exit(ToolRunner.run(new Driver(), args));
}

public int run(String args[]) {
if (args.length != 2) {
System.err.println("Usage: indycascade <in> <out>");
System.exit(2);
}

Job job = new Job(getConf());
Configuration conf = job.getConfiguration();

// insert other job set up here

return job.waitForCompletion(true) ? 0 : 1;
}
}

最后一点 - 在您创建 Job 实例之后对 conf 的任何引用都将是原始的 conf。 Job 对 conf 对象进行了深度复制,因此调用 MultipleOutputs.addNamedoutput(conf, ...) 不会产生预期的效果,请使用 MultipleOutputs.addNamedoutput(job.getConfiguration(), ...) 代替。请参阅我上面的示例代码以了解执行此操作的正确方法

关于java - Hadoop MultipleOutputs.addNamedOutput 抛出 "cannot find symbol",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/9876456/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com