gpt4 book ai didi

java - Hadoop-执行多 map 作业

转载 作者:行者123 更新时间:2023-12-02 21:58:11 25 4
gpt4 key购买 nike

我有一个仅实现Map功能的应用程序。
我正在创建1000个作业,每个作业都有一个唯一的PrefixFilter。
例:

public void startNewScan(String prefix, long endTime)
Job job = new Job(conf, "MyJob");
job.setNumReduceTasks(0);

Scan scan = new Scan();

scan.setTimeRange(0, endTime);
scan.addColumn(Bytes.toBytes("col"), Bytes.toBytes("Value"));
scan.setFilter(new PrefixFilter(prefix.getBytes()));

TableMapReduceUtil.initTableMapperJob(tableName, scan, ExtractMapper.class, ImmutableBytesWritable.class, Result.class, job);
job.waitForCompletion(true);
}

现在-我不想等待完成,因为执行1000个工作将使我永远。为每个作业创建线程也不是一种选择。
有什么内置的用法吗?
像JobsPool之类的东西可以接受所有作业,并且对所有作业都有自己的waitForCompletion。

最佳答案

使用:

job.submit();

"Submit the job to the cluster and return immediately."

关于java - Hadoop-执行多 map 作业,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/6505628/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com