- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
相关问题@Testing multiple outputs with MRUnit但答案不适用于较新的版本 1.1.0
问题是如何设置多个命名输出,以便底层模拟实现识别命名路径。我写信是为了将相同的 reducer 记录写入 2 条路径。我可以通过调用 MultipleOutputs.addNamedOutput(job, "mos", ...) 在常规 MR 作业中做同样的事情
当我尝试运行 mrunit 时,出现以下异常
Named output 'mos' not defined
java.lang.IllegalArgumentException: Named output 'mos' not defined
at org.apache.hadoop.mapreduce.lib.output.MultipleOutputs.checkNamedOutputName(MultipleOutputs.java:256)
at org.apache.hadoop.mapreduce.lib.output.MultipleOutputs.write(MultipleOutputs.java:426)
at TestMultipleOutputsAction$TestReducer$$anonfun$reduce$1.apply(TestMultipleOutputs.scala:48)
at TestMultipleOutputsAction$TestReducer$$anonfun$reduce$1.apply(TestMultipleOutputs.scala:47)
at scala.collection.Iterator$class.foreach(Iterator.scala:727)
at scala.collection.AbstractIterator.foreach(Iterator.scala:1157)
at scala.collection.IterableLike$class.foreach(IterableLike.scala:72)
at scala.collection.AbstractIterable.foreach(Iterable.scala:54)
at TestMultipleOutputsAction$TestReducer.reduce(TestMultipleOutputs.scala:47)
at TestMultipleOutputsAction$TestReducer.reduce(TestMultipleOutputs.scala:35)
scala代码贴在这里。为代码的冗长道歉。我尝试拉入所有部分,以便于独立运行代码。
import org.apache.hadoop.conf.Configuration
import org.apache.hadoop.mrunit.mapreduce.MapReduceDriver
import org.apache.hadoop.io._
import org.apache.hadoop.mapreduce.{Counters, TaskInputOutputContext, Reducer, Mapper}
import org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
import scala.collection.JavaConversions._
import scala.collection.JavaConverters._
import org.scalatest.FunSuite
import org.apache.hadoop.io.SequenceFile.{Writer, Reader}
import java.nio.file.{Path, Paths, Files}
import com.typesafe.scalalogging.slf4j.Logging
import org.apache.hadoop.fs.{Path => HadoopFSPath}
object TestMultipleOutputsAction {
class TestMapper extends Mapper[LongWritable, MapWritable, LongWritable, MapWritable] with Logging {
override def setup(context: Mapper[LongWritable, MapWritable, LongWritable, MapWritable]#Context) {
}
override def cleanup(context: Mapper[LongWritable, MapWritable, LongWritable, MapWritable]#Context) {
}
override def map(key: LongWritable, value: MapWritable, context: Mapper[LongWritable, MapWritable, LongWritable, MapWritable]#Context) {
context.write(key, value)
}
}
class TestReducer extends Reducer[LongWritable, MapWritable, LongWritable, MapWritable] with Logging {
var multipleOutputs: MultipleOutputs[LongWritable, MapWritable] = null
override def setup(context: Reducer[LongWritable, MapWritable, LongWritable, MapWritable]#Context) {
multipleOutputs = new MultipleOutputs[LongWritable, MapWritable](context.asInstanceOf[TaskInputOutputContext[_, _, LongWritable, MapWritable]])
super.setup(context)
}
override def cleanup(context: Reducer[LongWritable, MapWritable, LongWritable, MapWritable]#Context) {
}
override def reduce(key: LongWritable, values: java.lang.Iterable[MapWritable], context: Reducer[LongWritable, MapWritable, LongWritable, MapWritable]#Context) {
values.foreach(value => {
multipleOutputs.write("mos", key, value, "outputPath1")
multipleOutputs.write("mos", key, value, "outputPath2")
})
}
}
}
object TestHelper extends Logging {
def generateInput(conf: Configuration, deleteOnExit: Boolean): String = {
val dirPath = Files.createTempDirectory(Paths.get("/tmp"), "multiple_outputs")
val filePath = Files.createTempFile(dirPath, "part-m-", ".0001")
if (deleteOnExit) {
filePath.toFile.deleteOnExit()
}
logger.info(s"writing to path [${filePath.toFile.getAbsolutePath}] ...")
val seqFilePath = new HadoopFSPath(filePath.toFile.getAbsolutePath)
val writer = SequenceFile.createWriter(conf,
Writer.file(seqFilePath), Writer.keyClass(classOf[LongWritable]),
Writer.valueClass(classOf[MapWritable]))
for (i <- 1 to 10) {
val mapWritable = new MapWritable()
mapWritable.put(new Text("mod2"), new LongWritable(i % 2))
writer.append(new LongWritable(i), mapWritable)
}
writer.close()
logger.info(s"writing to path [${filePath.toFile.getAbsolutePath}] completed")
dirPath.toFile.getAbsolutePath
}
def readInput(conf: Configuration
, path: String
, mapReduceDriver: MapReduceDriver[LongWritable, MapWritable, LongWritable, MapWritable, LongWritable, MapWritable]) {
val entries = Files.newDirectoryStream(Paths.get(path), "part-m-*")
var numRecords = 0
entries.asScala.foreach(entry => {
val entryName = entry.toFile.getName
val absolutePath = entry.toFile.getAbsolutePath
logger.debug(s"entry name : [${entryName}], absolute path : [${absolutePath}]")
val validEntry = entryName.startsWith("part-m-")
if (validEntry) {
logger.debug(s"adding inputs from path : [${absolutePath}] ...")
val hadoopPath = new HadoopFSPath(absolutePath)
val reader = new SequenceFile.Reader(conf, Reader.file(hadoopPath))
var key = new LongWritable()
var mapWritable = new MapWritable()
var numFileRecords = 0
while (reader.next(key, mapWritable)) {
logger.debug(key + "\t" + mapWritable)
mapReduceDriver.addInput(key, mapWritable)
numFileRecords = numFileRecords + 1
numRecords = numRecords + 1
}
logger.debug(s"adding inputs from path : [${absolutePath}] completed. num file records : [${numFileRecords}]")
}
})
logger.debug(s"adding inputs from path : [${path}] completed. num records : [${numRecords}]")
}
def writeOutput(conf: Configuration, dirPath: Path, outputPairs: java.util.List[org.apache.hadoop.mrunit.types.Pair[LongWritable, MapWritable]], deleteOnExit: Boolean): Unit = {
val filePath = Files.createTempFile(dirPath, "part-m-", ".0001")
if (deleteOnExit) {
filePath.toFile.deleteOnExit()
}
logger.info(s"writing to path [${filePath.toFile.getAbsolutePath}] ...")
val seqFilePath = new HadoopFSPath(filePath.toFile.getAbsolutePath)
val writer = SequenceFile.createWriter(conf,
Writer.file(seqFilePath), Writer.keyClass(classOf[LongWritable]),
Writer.valueClass(classOf[MapWritable]))
outputPairs.asScala.toSeq.foreach(outputPair => {
logger.debug(s"key : [${outputPair.getFirst}], value : [${outputPair.getSecond}]")
writer.append(outputPair.getFirst, outputPair.getSecond)
})
writer.close()
logger.info(s"writing to path [${filePath.toFile.getAbsolutePath}] completed")
}
def checkCounters(counters: Counters): Unit = {
counters.getGroupNames.asScala.foreach(groupName => {
counters.getGroup(groupName).iterator().asScala.foreach(counter => {
logger.debug(s"groupName: [${groupName}], counterName: [${counter.getName}], counterValue : [${counter.getValue}]")
})
})
}
}
object TestMultipleOutputs extends FunSuite with Logging {
def testMultipleOutputs(conf: Configuration, inputPath: String, deleteOnExit: Boolean) {
logger.info(s"TESTINPUT : input path : [${inputPath}] ...")
val mapReduceDriver = new MapReduceDriver[LongWritable, MapWritable, LongWritable, MapWritable, LongWritable, MapWritable]()
.withMapper(new TestMultipleOutputsAction.TestMapper)
.withReducer(new TestMultipleOutputsAction.TestReducer)
mapReduceDriver.addMultiOutput("mos", classOf[LongWritable], classOf[MapWritable])
val parentOutputPath = Files.createTempDirectory(Paths.get("/tmp"), "pr_output")
if (deleteOnExit) {
parentOutputPath.toFile.deleteOnExit
}
TestHelper.readInput(conf, inputPath, mapReduceDriver)
val outputPairs = mapReduceDriver.run()
TestHelper.writeOutput(conf, parentOutputPath, outputPairs, deleteOnExit)
TestHelper.checkCounters(mapReduceDriver.getCounters())
logger.info(s"TESTINPUT : input path : [${inputPath}] completed")
}
}
class TestMultipleOutputs extends FunSuite with Logging {
test("multiple outputs action") {
val deleteOnExit = true
val conf = new Configuration()
val inputPath = TestHelper.generateInput(conf, deleteOnExit)
TestMultipleOutputs.testMultipleOutputs(conf, inputPath, deleteOnExit)
}
}
最佳答案
我在 Java 中遇到了同样的问题,并用
注释了我的单元测试@RunWith(PowerMockRunner.class)
@PrepareForTest(PricePerPlacementReducer.class)
在进行了正确的导入后(基本上是 powermock 版本 1.5.1 及其 junit 绑定(bind)程序)为我解决了这个问题。
关于scala - 使用 MRUnit 1.1.0 测试多个输出,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24331793/
我获得了一些源代码示例,我想测试一些功能。不幸的是,我在执行程序时遇到问题: 11:41:31 [linqus@ottsrvafq1 example]$ javac -g test/test.jav
我想测试ggplot生成的两个图是否相同。一种选择是在绘图对象上使用all.equal,但我宁愿进行更艰巨的测试以确保它们相同,这似乎是identical()为我提供的东西。 但是,当我测试使用相同d
我确实使用 JUnit5 执行我的 Maven 测试,其中所有测试类都有 @ExtendWith({ProcessExtension.class}) 注释。如果是这种情况,此扩展必须根据特殊逻辑使测试
在开始使用 Node.js 开发有用的东西之前,您的流程是什么?您是否在 VowJS、Expresso 上创建测试?你使用 Selenium 测试吗?什么时候? 我有兴趣获得一个很好的工作流程来开发我
这个问题已经有答案了: What is a NullPointerException, and how do I fix it? (12 个回答) 已关闭 3 年前。 基于示例here ,我尝试为我的
我正在考虑测试一些 Vue.js 组件,作为 Laravel 应用程序的一部分。所以,我有一个在 Blade 模板中使用并生成 GET 的组件。在 mounted 期间请求生命周期钩子(Hook)。假
考虑以下程序: #include struct Test { int a; }; int main() { Test t=Test(); std::cout<
我目前的立场是:如果我使用 web 测试(在我的例子中可能是通过 VS.NET'08 测试工具和 WatiN)以及代码覆盖率和广泛的数据来彻底测试我的 ASP.NET 应用程序,我应该不需要编写单独的
我正在使用 C#、.NET 4.7 我有 3 个字符串,即。 [test.1, test.10, test.2] 我需要对它们进行排序以获得: test.1 test.2 test.10 我可能会得到
我有一个 ID 为“rv_list”的 RecyclerView。单击任何 RecyclerView 项目时,每个项目内都有一个可见的 id 为“star”的 View 。 我想用 expresso
我正在使用 Jest 和模拟器测试 Firebase 函数,尽管这些测试可能来自竞争条件。所谓 flakey,我的意思是有时它们会通过,有时不会,即使在同一台机器上也是如此。 测试和函数是用 Type
我在测试我与 typeahead.js ( https://github.com/angular-ui/bootstrap/blob/master/src/typeahead/typeahead.js
我正在尝试使用 Teamcity 自动运行测试,但似乎当代理编译项目时,它没有正确完成,因为当我运行运行测试之类的命令时,我收到以下错误: fatal error: 'Pushwoosh/PushNo
这是我第一次玩 cucumber ,还创建了一个测试和 API 的套件。我的问题是在测试 API 时是否需要运行它? 例如我脑子里有这个, 启动 express 服务器作为后台任务 然后当它启动时(我
我有我的主要应用程序项目,然后是我的测试的第二个项目。将所有类型的测试存储在该测试项目中是一种好的做法,还是应该将一些测试驻留在主应用程序项目中? 我应该在我的主项目中保留 POJO JUnit(测试
我正在努力弄清楚如何实现这个计数。模型是用户、测试、等级 用户 has_many 测试,测试 has_many 成绩。 每个等级都有一个计算分数(strong_pass、pass、fail、stron
我正在尝试测试一些涉及 OkHttp3 的下载代码,但不幸失败了。目标:测试 下载图像文件并验证其是否有效。平台:安卓。此代码可在生产环境中运行,但测试代码没有任何意义。 产品代码 class Fil
当我想为 iOS 运行 UI 测试时,我收到以下消息: SetUp : System.Exception : Unable to determine simulator version for X 堆
我正在使用 Firebase Remote Config 在 iOS 上设置 A/B 测试。 一切都已设置完毕,我正在 iOS 应用程序中读取服务器端默认值。 但是在多个模拟器上尝试,它们都读取了默认
[已编辑]:我已经用 promise 方式更改了我的代码。 我正在写 React with this starter 由 facebook 创建,我是测试方面的新手。 现在我有一个关于图像的组件,它有
我是一名优秀的程序员,十分优秀!