- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
相关问题@Testing multiple outputs with MRUnit但答案不适用于较新的版本 1.1.0
问题是如何设置多个命名输出,以便底层模拟实现识别命名路径。我写信是为了将相同的 reducer 记录写入 2 条路径。我可以通过调用 MultipleOutputs.addNamedOutput(job, "mos", ...) 在常规 MR 作业中做同样的事情
当我尝试运行 mrunit 时,出现以下异常
Named output 'mos' not defined
java.lang.IllegalArgumentException: Named output 'mos' not defined
at org.apache.hadoop.mapreduce.lib.output.MultipleOutputs.checkNamedOutputName(MultipleOutputs.java:256)
at org.apache.hadoop.mapreduce.lib.output.MultipleOutputs.write(MultipleOutputs.java:426)
at TestMultipleOutputsAction$TestReducer$$anonfun$reduce$1.apply(TestMultipleOutputs.scala:48)
at TestMultipleOutputsAction$TestReducer$$anonfun$reduce$1.apply(TestMultipleOutputs.scala:47)
at scala.collection.Iterator$class.foreach(Iterator.scala:727)
at scala.collection.AbstractIterator.foreach(Iterator.scala:1157)
at scala.collection.IterableLike$class.foreach(IterableLike.scala:72)
at scala.collection.AbstractIterable.foreach(Iterable.scala:54)
at TestMultipleOutputsAction$TestReducer.reduce(TestMultipleOutputs.scala:47)
at TestMultipleOutputsAction$TestReducer.reduce(TestMultipleOutputs.scala:35)
scala代码贴在这里。为代码的冗长道歉。我尝试拉入所有部分,以便于独立运行代码。
import org.apache.hadoop.conf.Configuration
import org.apache.hadoop.mrunit.mapreduce.MapReduceDriver
import org.apache.hadoop.io._
import org.apache.hadoop.mapreduce.{Counters, TaskInputOutputContext, Reducer, Mapper}
import org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
import scala.collection.JavaConversions._
import scala.collection.JavaConverters._
import org.scalatest.FunSuite
import org.apache.hadoop.io.SequenceFile.{Writer, Reader}
import java.nio.file.{Path, Paths, Files}
import com.typesafe.scalalogging.slf4j.Logging
import org.apache.hadoop.fs.{Path => HadoopFSPath}
object TestMultipleOutputsAction {
class TestMapper extends Mapper[LongWritable, MapWritable, LongWritable, MapWritable] with Logging {
override def setup(context: Mapper[LongWritable, MapWritable, LongWritable, MapWritable]#Context) {
}
override def cleanup(context: Mapper[LongWritable, MapWritable, LongWritable, MapWritable]#Context) {
}
override def map(key: LongWritable, value: MapWritable, context: Mapper[LongWritable, MapWritable, LongWritable, MapWritable]#Context) {
context.write(key, value)
}
}
class TestReducer extends Reducer[LongWritable, MapWritable, LongWritable, MapWritable] with Logging {
var multipleOutputs: MultipleOutputs[LongWritable, MapWritable] = null
override def setup(context: Reducer[LongWritable, MapWritable, LongWritable, MapWritable]#Context) {
multipleOutputs = new MultipleOutputs[LongWritable, MapWritable](context.asInstanceOf[TaskInputOutputContext[_, _, LongWritable, MapWritable]])
super.setup(context)
}
override def cleanup(context: Reducer[LongWritable, MapWritable, LongWritable, MapWritable]#Context) {
}
override def reduce(key: LongWritable, values: java.lang.Iterable[MapWritable], context: Reducer[LongWritable, MapWritable, LongWritable, MapWritable]#Context) {
values.foreach(value => {
multipleOutputs.write("mos", key, value, "outputPath1")
multipleOutputs.write("mos", key, value, "outputPath2")
})
}
}
}
object TestHelper extends Logging {
def generateInput(conf: Configuration, deleteOnExit: Boolean): String = {
val dirPath = Files.createTempDirectory(Paths.get("/tmp"), "multiple_outputs")
val filePath = Files.createTempFile(dirPath, "part-m-", ".0001")
if (deleteOnExit) {
filePath.toFile.deleteOnExit()
}
logger.info(s"writing to path [${filePath.toFile.getAbsolutePath}] ...")
val seqFilePath = new HadoopFSPath(filePath.toFile.getAbsolutePath)
val writer = SequenceFile.createWriter(conf,
Writer.file(seqFilePath), Writer.keyClass(classOf[LongWritable]),
Writer.valueClass(classOf[MapWritable]))
for (i <- 1 to 10) {
val mapWritable = new MapWritable()
mapWritable.put(new Text("mod2"), new LongWritable(i % 2))
writer.append(new LongWritable(i), mapWritable)
}
writer.close()
logger.info(s"writing to path [${filePath.toFile.getAbsolutePath}] completed")
dirPath.toFile.getAbsolutePath
}
def readInput(conf: Configuration
, path: String
, mapReduceDriver: MapReduceDriver[LongWritable, MapWritable, LongWritable, MapWritable, LongWritable, MapWritable]) {
val entries = Files.newDirectoryStream(Paths.get(path), "part-m-*")
var numRecords = 0
entries.asScala.foreach(entry => {
val entryName = entry.toFile.getName
val absolutePath = entry.toFile.getAbsolutePath
logger.debug(s"entry name : [${entryName}], absolute path : [${absolutePath}]")
val validEntry = entryName.startsWith("part-m-")
if (validEntry) {
logger.debug(s"adding inputs from path : [${absolutePath}] ...")
val hadoopPath = new HadoopFSPath(absolutePath)
val reader = new SequenceFile.Reader(conf, Reader.file(hadoopPath))
var key = new LongWritable()
var mapWritable = new MapWritable()
var numFileRecords = 0
while (reader.next(key, mapWritable)) {
logger.debug(key + "\t" + mapWritable)
mapReduceDriver.addInput(key, mapWritable)
numFileRecords = numFileRecords + 1
numRecords = numRecords + 1
}
logger.debug(s"adding inputs from path : [${absolutePath}] completed. num file records : [${numFileRecords}]")
}
})
logger.debug(s"adding inputs from path : [${path}] completed. num records : [${numRecords}]")
}
def writeOutput(conf: Configuration, dirPath: Path, outputPairs: java.util.List[org.apache.hadoop.mrunit.types.Pair[LongWritable, MapWritable]], deleteOnExit: Boolean): Unit = {
val filePath = Files.createTempFile(dirPath, "part-m-", ".0001")
if (deleteOnExit) {
filePath.toFile.deleteOnExit()
}
logger.info(s"writing to path [${filePath.toFile.getAbsolutePath}] ...")
val seqFilePath = new HadoopFSPath(filePath.toFile.getAbsolutePath)
val writer = SequenceFile.createWriter(conf,
Writer.file(seqFilePath), Writer.keyClass(classOf[LongWritable]),
Writer.valueClass(classOf[MapWritable]))
outputPairs.asScala.toSeq.foreach(outputPair => {
logger.debug(s"key : [${outputPair.getFirst}], value : [${outputPair.getSecond}]")
writer.append(outputPair.getFirst, outputPair.getSecond)
})
writer.close()
logger.info(s"writing to path [${filePath.toFile.getAbsolutePath}] completed")
}
def checkCounters(counters: Counters): Unit = {
counters.getGroupNames.asScala.foreach(groupName => {
counters.getGroup(groupName).iterator().asScala.foreach(counter => {
logger.debug(s"groupName: [${groupName}], counterName: [${counter.getName}], counterValue : [${counter.getValue}]")
})
})
}
}
object TestMultipleOutputs extends FunSuite with Logging {
def testMultipleOutputs(conf: Configuration, inputPath: String, deleteOnExit: Boolean) {
logger.info(s"TESTINPUT : input path : [${inputPath}] ...")
val mapReduceDriver = new MapReduceDriver[LongWritable, MapWritable, LongWritable, MapWritable, LongWritable, MapWritable]()
.withMapper(new TestMultipleOutputsAction.TestMapper)
.withReducer(new TestMultipleOutputsAction.TestReducer)
mapReduceDriver.addMultiOutput("mos", classOf[LongWritable], classOf[MapWritable])
val parentOutputPath = Files.createTempDirectory(Paths.get("/tmp"), "pr_output")
if (deleteOnExit) {
parentOutputPath.toFile.deleteOnExit
}
TestHelper.readInput(conf, inputPath, mapReduceDriver)
val outputPairs = mapReduceDriver.run()
TestHelper.writeOutput(conf, parentOutputPath, outputPairs, deleteOnExit)
TestHelper.checkCounters(mapReduceDriver.getCounters())
logger.info(s"TESTINPUT : input path : [${inputPath}] completed")
}
}
class TestMultipleOutputs extends FunSuite with Logging {
test("multiple outputs action") {
val deleteOnExit = true
val conf = new Configuration()
val inputPath = TestHelper.generateInput(conf, deleteOnExit)
TestMultipleOutputs.testMultipleOutputs(conf, inputPath, deleteOnExit)
}
}
最佳答案
我在 Java 中遇到了同样的问题,并用
注释了我的单元测试@RunWith(PowerMockRunner.class)
@PrepareForTest(PricePerPlacementReducer.class)
在进行了正确的导入后(基本上是 powermock 版本 1.5.1 及其 junit 绑定(bind)程序)为我解决了这个问题。
关于scala - 使用 MRUnit 1.1.0 测试多个输出,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24331793/
我在网上搜索但没有找到任何合适的文章解释如何使用 javascript 使用 WCF 服务,尤其是 WebScriptEndpoint。 任何人都可以对此给出任何指导吗? 谢谢 最佳答案 这是一篇关于
我正在编写一个将运行 Linux 命令的 C 程序,例如: cat/etc/passwd | grep 列表 |剪切-c 1-5 我没有任何结果 *这里 parent 等待第一个 child (chi
所以我正在尝试处理文件上传,然后将该文件作为二进制文件存储到数据库中。在我存储它之后,我尝试在给定的 URL 上提供文件。我似乎找不到适合这里的方法。我需要使用数据库,因为我使用 Google 应用引
我正在尝试制作一个宏,将下面的公式添加到单元格中,然后将其拖到整个列中并在 H 列中复制相同的公式 我想在 F 和 H 列中输入公式的数据 Range("F1").formula = "=IF(ISE
问题类似于this one ,但我想使用 OperatorPrecedenceParser 解析带有函数应用程序的表达式在 FParsec . 这是我的 AST: type Expression =
我想通过使用 sequelize 和 node.js 将这个查询更改为代码取决于在哪里 select COUNT(gender) as genderCount from customers where
我正在使用GNU bash,版本5.0.3(1)-发行版(x86_64-pc-linux-gnu),我想知道为什么简单的赋值语句会出现语法错误: #/bin/bash var1=/tmp
这里,为什么我的代码在 IE 中不起作用。我的代码适用于所有浏览器。没有问题。但是当我在 IE 上运行我的项目时,它发现错误。 而且我的 jquery 类和 insertadjacentHTMl 也不
我正在尝试更改标签的innerHTML。我无权访问该表单,因此无法编辑 HTML。标签具有的唯一标识符是“for”属性。 这是输入和标签的结构:
我有一个页面,我可以在其中返回用户帖子,可以使用一些 jquery 代码对这些帖子进行即时评论,在发布新评论后,我在帖子下插入新评论以及删除 按钮。问题是 Delete 按钮在新插入的元素上不起作用,
我有一个大约有 20 列的“管道分隔”文件。我只想使用 sha1sum 散列第一列,它是一个数字,如帐号,并按原样返回其余列。 使用 awk 或 sed 执行此操作的最佳方法是什么? Accounti
我需要将以下内容插入到我的表中...我的用户表有五列 id、用户名、密码、名称、条目。 (我还没有提交任何东西到条目中,我稍后会使用 php 来做)但由于某种原因我不断收到这个错误:#1054 - U
所以我试图有一个输入字段,我可以在其中输入任何字符,但然后将输入的值小写,删除任何非字母数字字符,留下“。”而不是空格。 例如,如果我输入: 地球的 70% 是水,-!*#$^^ & 30% 土地 输
我正在尝试做一些我认为非常简单的事情,但出于某种原因我没有得到想要的结果?我是 javascript 的新手,但对 java 有经验,所以我相信我没有使用某种正确的规则。 这是一个获取输入值、检查选择
我想使用 angularjs 从 mysql 数据库加载数据。 这就是应用程序的工作原理;用户登录,他们的用户名存储在 cookie 中。该用户名显示在主页上 我想获取这个值并通过 angularjs
我正在使用 autoLayout,我想在 UITableViewCell 上放置一个 UIlabel,它应该始终位于单元格的右侧和右侧的中心。 这就是我想要实现的目标 所以在这里你可以看到我正在谈论的
我需要与 MySql 等效的 elasticsearch 查询。我的 sql 查询: SELECT DISTINCT t.product_id AS id FROM tbl_sup_price t
我正在实现代码以使用 JSON。 func setup() { if let flickrURL = NSURL(string: "https://api.flickr.com/
我尝试使用for循环声明变量,然后测试cols和rols是否相同。如果是,它将运行递归函数。但是,我在 javascript 中执行 do 时遇到问题。有人可以帮忙吗? 现在,在比较 col.1 和
我举了一个我正在处理的问题的简短示例。 HTML代码: 1 2 3 CSS 代码: .BB a:hover{ color: #000; } .BB > li:after {
我是一名优秀的程序员,十分优秀!