gpt4 book ai didi

java - 如何对自定义 RecordReader 和 InputFormat 类进行单元测试?

转载 作者:可可西里 更新时间:2023-11-01 14:25:04 24 4
gpt4 key购买 nike

我开发了一个 map-reduce 程序。我编写了自定义 RecordReaderInputFormat 类。

我正在使用 MR UnitMockito 对 mapper 和 reducer 进行单元测试。

我想知道如何对自定义 RecordReaderInputFormat 类进行单元测试?测试这些类的最佳方式是什么?

最佳答案

感谢user7610

来自 answer 的示例代码的编译和测试版本

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.mapreduce.InputFormat;
import org.apache.hadoop.mapreduce.RecordReader;
import org.apache.hadoop.mapreduce.TaskAttemptContext;
import org.apache.hadoop.mapreduce.TaskAttemptID;
import org.apache.hadoop.mapreduce.lib.input.FileSplit;
import org.apache.hadoop.mapreduce.task.TaskAttemptContextImpl;
import org.apache.hadoop.util.ReflectionUtils;
import java.io.File;

Configuration conf = new Configuration(false);
conf.set("fs.default.name", "file:///");

File testFile = new File("path/to/file");
Path path = new Path(testFile.getAbsoluteFile().toURI());
FileSplit split = new FileSplit(path, 0, testFile.length(), null);

InputFormat inputFormat = ReflectionUtils.newInstance(MyInputFormat.class, conf);
TaskAttemptContext context = new TaskAttemptContextImpl(conf, new TaskAttemptID());
RecordReader reader = inputFormat.createRecordReader(split, context);

reader.initialize(split, context);

关于java - 如何对自定义 RecordReader 和 InputFormat 类进行单元测试?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20371953/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com