- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我在控制台上收到了这些错误日志
java.io.IOException: Pass a Delete or a Put
at org.apache.hadoop.hbase.mapreduce.TableOutputFormat$TableRecordWriter.write(TableOutputFormat.java:125)
at org.apache.hadoop.hbase.mapreduce.TableOutputFormat$TableRecordWriter.write(TableOutputFormat.java:84)
at org.apache.hadoop.mapred.ReduceTask$NewTrackingRecordWriter.write(ReduceTask.java:586)
at org.apache.hadoop.mapreduce.TaskInputOutputContext.write(TaskInputOutputContext.java:80)
at org.apache.hadoop.mapreduce.Reducer.reduce(Reducer.java:156)
at org.apache.hadoop.mapreduce.Reducer.run(Reducer.java:177)
at org.apache.hadoop.mapred.ReduceTask.runNewReducer(ReduceTask.java:649)
at org.apache.hadoop.mapred.ReduceTask.run(ReduceTask.java:418)
at org.apache.hadoop.mapred.LocalJobRunner$Job.run(LocalJobRunner.java:398)
15/01/06 14:13:34 INFO mapred.JobClient: Job complete: job_local259887539_0001
15/01/06 14:13:34 INFO mapred.JobClient: Counters: 19
15/01/06 14:13:34 INFO mapred.JobClient: File Input Format Counters
15/01/06 14:13:34 INFO mapred.JobClient: Bytes Read=0
15/01/06 14:13:34 INFO mapred.JobClient: FileSystemCounters
15/01/06 14:13:34 INFO mapred.JobClient: FILE_BYTES_READ=12384691
15/01/06 14:13:34 INFO mapred.JobClient: FILE_BYTES_WRITTEN=12567287
15/01/06 14:13:34 INFO mapred.JobClient: Map-Reduce Framework
15/01/06 14:13:34 INFO mapred.JobClient: Reduce input groups=0
15/01/06 14:13:34 INFO mapred.JobClient: Map output materialized bytes=8188
15/01/06 14:13:34 INFO mapred.JobClient: Combine output records=0
15/01/06 14:13:34 INFO mapred.JobClient: Map input records=285
15/01/06 14:13:34 INFO mapred.JobClient: Reduce shuffle bytes=0
15/01/06 14:13:34 INFO mapred.JobClient: Physical memory (bytes) snapshot=0
15/01/06 14:13:34 INFO mapred.JobClient: Reduce output records=0
15/01/06 14:13:34 INFO mapred.JobClient: Spilled Records=285
15/01/06 14:13:34 INFO mapred.JobClient: Map output bytes=7612
15/01/06 14:13:34 INFO mapred.JobClient: Total committed heap usage (bytes)=1029046272
15/01/06 14:13:34 INFO mapred.JobClient: CPU time spent (ms)=0
15/01/06 14:13:34 INFO mapred.JobClient: Virtual memory (bytes) snapshot=0
15/01/06 14:13:34 INFO mapred.JobClient: SPLIT_RAW_BYTES=77
15/01/06 14:13:34 INFO mapred.JobClient: Map output records=285
15/01/06 14:13:34 INFO mapred.JobClient: Combine input records=0
15/01/06 14:13:34 INFO mapred.JobClient: Reduce input records=0
当我尝试使用基于 http://hbase.apache.org/book/mapreduce.example.html#mapreduce.example.readwrite 的 Scala 实现制作 CopyTable 时
这是我的代码示例,有什么比这样做更好的吗?
package com.example
import org.apache.hadoop.hbase.HBaseConfiguration
import org.apache.hadoop.hbase.client.HBaseAdmin
import org.apache.hadoop.hbase.client.HTable
import org.apache.hadoop.hbase.util.Bytes
import org.apache.hadoop.hbase.client.Put
import org.apache.hadoop.hbase.client.Get
import java.io.IOException
import org.apache.hadoop.conf.Configuration
import org.apache.hadoop.hbase._
import org.apache.hadoop.hbase.client._
import org.apache.hadoop.hbase.io._
import org.apache.hadoop.hbase.mapreduce._
import org.apache.hadoop.io._
import org.apache.hadoop.mapreduce._
import scala.collection.JavaConversions._
case class HString(name: String) {
lazy val bytes = name.getBytes
override def toString = name
}
object HString {
import scala.language.implicitConversions
implicit def hstring2String(src: HString): String = src.name
implicit def hstring2Bytes(src: HString): Array[Byte] = src.bytes
}
object Families {
val stream = HString("stream")
val identity = HString("identity")
}
object Qualifiers {
val title = HString("title")
val url = HString("url")
val media = HString("media")
val media_source = HString("media_source")
val content = HString("content")
val nolimitid_timestamp = HString("nolimitid.timestamp")
val original_id = HString("original_id")
val timestamp = HString("timestamp")
val date_created = HString("date_created")
val count = HString("count")
}
object Tables {
val rawstream100 = HString("raw_stream_1.0.0")
val rawstream = HString("rawstream")
}
class tmapper extends TableMapper[ImmutableBytesWritable, Put]{
def map (row: ImmutableBytesWritable, value: Result, context: Context) {
val put = new Put(row.get())
for (kv <- value.raw()) {
put.add(kv)
}
context.write(row, put)
}
}
object Hello {
val hbaseMaster = "127.0.0.1:60000"
val hbaseZookeper = "127.0.0.1"
def main(args: Array[String]): Unit = {
val conf = HBaseConfiguration.create()
conf.set("hbase.master", hbaseMaster)
conf.set("hbase.zookeeper.quorum", hbaseZookeper)
val hbaseAdmin = new HBaseAdmin(conf)
val job = Job.getInstance(conf, "CopyTable")
job.setJarByClass(classOf[Hello])
job.setMapperClass(classOf[tmapper])
job.setMapOutputKeyClass(classOf[ImmutableBytesWritable])
job.setMapOutputValueClass(classOf[Result])
//
job.setOutputKeyClass(classOf[ImmutableBytesWritable])
job.setOutputValueClass(classOf[Put])
val scan = new Scan()
scan.setCaching(500) // 1 is the default in Scan, which will be bad for MapReduce jobs
scan.setCacheBlocks(false) // don't set to true for MR jobs
TableMapReduceUtil.initTableMapperJob(
Tables.rawstream100.bytes, // input HBase table name
scan, // Scan instance to control CF and attribute selection
classOf[tmapper], // mapper class
null, // mapper output key class
null, // mapper output value class
job
)
TableMapReduceUtil.initTableReducerJob(
Tables.rawstream, // Table name
null, // Reducer class
job
)
val b = job.waitForCompletion(true);
if (!b) {
throw new IOException("error with job!");
}
}
}
class Hello {}
再次感谢
最佳答案
如果你的任务只是复制表(不是通过scala在hbase中实现mapreduce)你可以使用CopyTable hbase-server 包中的类,如下所示:
import org.apache.hadoop.hbase.mapreduce.CopyTable
CopyTable.main(Array("--peer.adr=127.0.0.1:2181:/hbase", "--new.name=rawstream", "raw_stream_1.0.0"))
查看CopyTable documentation用于其他参数。
关于scala - Hadoop : java. io.IOException:传递删除或放置,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27539964/
Github:https://github.com/jjvang/PassIntentDemo 我一直在关注有关按 Intent 传递对象的教程:https://www.javacodegeeks.c
我有一个 View ,其中包含自动生成的 text 类型的 input 框。当我单击“通过电子邮件发送结果”按钮时,代码会将您带到 CalculatedResults Controller 中的 Em
我有一个基本的docker镜像,我将以此为基础构建自己的镜像。我没有基础镜像的Dockerfile。 基本上,基本镜像使用两个--env arg,一个接受其许可证,一个选择在容器中激活哪个框架。我可以
假设我想计算 2^n 的总和,n 范围从 0 到 100。我可以编写以下内容: seq { 0 .. 100 } |> Seq.sumBy ((**) 2I) 但是,这与 (*) 或其他运算符/函数不
我有这个网址: http://www.example.com/get_url.php?ID=100&Link=http://www.test.com/page.php?l=1&m=7 当我打印 $_G
我想将 window.URL.createObjectURL(file) 创建的地址传递给 dancer.js 但我得到 GET blob:http%3A//localhost/b847c5cd-aa
我想知道如何将 typedef 传递给函数。例如: typedef int box[3][3]; box empty, *board[3][3]; 我如何将 board 传递给函数?我
我正在将一些代码从我的 Controller 移动到核心数据应用程序中的模型。 我编写了一个方法,该方法为我定期发出的特定获取请求返回 NSManagedObjectID。 + (NSManagedO
为什么我不能将类型化数组传递到采用 any[] 的函数/构造函数中? typedArray = new MyType[ ... ]; items = new ko.observableArray(ty
我是一名新的 Web 开发人员,正在学习 html5 和 javascript。 我有一个带有“选项卡”的网页,可以使网页的某些部分消失并重新出现。 链接如下: HOME 和 JavaScript 函
我试图将对函数的引用作为参数传递 很难解释 我会写一些伪代码示例 (calling function) function(hello()); function(pass) { if this =
我在尝试调用我正在创建的 C# 项目中的函数时遇到以下错误: System.Runtime.InteropServices.COMException: Operation is not allowed
使用 ksh。尝试重用当前脚本而不修改它,基本上可以归结为如下内容: `expr 5 $1 $2` 如何将乘法命令 (*) 作为参数 $1 传递? 我首先尝试使用“*”,甚至是\*,但没有用。我尝试
我一直在研究“Play for Java”这本书,这本书非常棒。我对 Java 还是很陌生,但我一直在关注这些示例,我有点卡在第 3 章上了。可以在此处找到代码:Play for Java on Gi
我知道 Javascript 中的对象是通过引用复制/传递的。但是函数呢? 当我跳到一些令人困惑的地方时,我正在尝试这段代码。这是代码片段: x = function() { console.log(
我希望能够像这样传递参数: fn(a>=b) or fn(a!=b) 我在 DjangoORM 和 SQLAlchemy 中看到了这种行为,但我不知道如何实现它。 最佳答案 ORM 使用 specia
在我的 Angular 项目中,我最近将 rxjs 升级到版本 6。现在,来自 npm 的模块(在 node_modules 文件夹内)由于一些破坏性更改而失败(旧的进口不再有效)。我为我的代码调整了
这个问题在这里已经有了答案: The issue of * in Command line argument (6 个答案) 关闭 3 年前。 我正在编写一个关于反向波兰表示法的 C 程序,它通过命
$(document).ready(function() { function GetDeals() { alert($(this).attr("id")); } $('.filter
下面是一个例子: 复制代码 代码如下: use strict; #这里是两个数组 my @i =('1','2','3'); my @j =('a','b','c'); &n
我是一名优秀的程序员,十分优秀!