gpt4 book ai didi

hadoop - 如何维护 Reducer 中 MapWritables 的顺序?

转载 作者:可可西里 更新时间:2023-11-01 17:00:45 26 4
gpt4 key购买 nike

我的映射器实现

public class SimpleMapper extends Mapper<Text, Text, Text, MapWritable> {

@Override
protected void map(Text key, Text value,Context context)
throws IOException, InterruptedException {

MapWritable writable = new LinkedMapWritable();
writable.put("unique_key","one");
writable.put("another_key","two");
context.write(new Text("key"),writable );
}

Reducer 实现是:

public class SimpleReducer extends Reducer<Text, MapWritable, NullWritable, Text> {
@Override
protected void reduce(Text key, Iterable<MapWritable> values,Context context)
throws IOException, InterruptedException {

// The map writables have to be ordered based on the "unique_key" inserted into it
}

我必须使用二级排序吗?还有其他方法吗?

最佳答案

reducer 中的 MapWritable (values) 始终处于不可预测的顺序,此顺序可能会因运行而异,您无法控制它。

但是 Map/Reduce 范式保证的是呈现给 reducer 的键将按排序顺序排列,属于单个键的所有值将进入单个 reducer。

因此,您绝对可以为您的用例使用辅助排序和自定义分区程序。

关于hadoop - 如何维护 Reducer 中 MapWritables 的顺序?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24316641/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com