gpt4 book ai didi

java - 通过 Ant 清理dist-执行一个 jar 以不同的名字出现?

转载 作者:行者123 更新时间:2023-12-02 21:43:49 24 4
gpt4 key购买 nike

我正在使用hadoop,需要从/ src文件中的所有类创建一个合并的.jar文件。每次我尝试创建它时,它都出现在WordCount.jar下,而不是在下面的代码中声明的Twitter.jar下:

import java.util.Arrays;

import org.apache.commons.lang.StringUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class Twitter {
public static void runJob(String[] input, String output) throws Exception {
Configuration conf = new Configuration();
Job job = new Job(conf);
job.setJarByClass(Twitter.class);
job.setReducerClass(TwitterReducer.class);
job.setMapperClass(TwitterMapper.class);

job.setOutputKeyClass(Text.class);
job.setOutputValueClass(NullWritable.class);
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(NullWritable.class);
Path outputPath = new Path(output);
FileInputFormat.setInputPaths(job, StringUtils.join(input, ","));
FileOutputFormat.setOutputPath(job, outputPath);
outputPath.getFileSystem(conf).delete(outputPath, true);
job.waitForCompletion(true);
}
public static void main(String[] args) throws Exception {
runJob(Arrays.copyOfRange(args, 0, args.length - 1), args[args.length - 1]);
}
}

因此,我不确定出什么问题了吗? .jar本身中的文件与/ src文件夹中的文件完全相同。

最佳答案

Jar文件的名称与其中的类名称无关。您需要检查Ant构建文件,特别是创建jar的目标。创建Jar文件的Ant任务通常是 jar 任务,并且可以通过destfile属性指定文件名。

关于java - 通过 Ant 清理dist-执行一个 jar 以不同的名字出现?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26807877/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com