- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
当我尝试将 IntWritable
从我的映射器传递到我的缩减器时出现以下错误:
INFO mapreduce.Job: Task Id : attempt_1413976354988_0009_r_000000_1, Status : FAILED
Error: java.lang.ClassCastException: org.apache.hadoop.io.IntWritable cannot be cast to org.apache.hadoop.hbase.client.Mutation
这是我的映射器:
public class testMapper extends TableMapper<Object, Object>
{
public void map(ImmutableBytesWritable rowKey, Result columns, Context context) throws IOException, InterruptedException
{
try
{
// get rowKey and convert it to string
String inKey = new String(rowKey.get());
// set new key having only date
String oKey = inKey.split("#")[0];
// get sales column in byte format first and then convert it to
// string (as it is stored as string from hbase shell)
byte[] bSales = columns.getValue(Bytes.toBytes("cf1"), Bytes.toBytes("sales"));
String sSales = new String(bSales);
Integer sales = new Integer(sSales);
// emit date and sales values
context.write(new ImmutableBytesWritable(oKey.getBytes()), new IntWritable(sales));
}
这是 reducer :
public class testReducer extends TableReducer<Object, Object, Object>
{
public void reduce(ImmutableBytesWritable key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException
{
try
{
int sum = 0;
// loop through different sales vales and add it to sum
for (IntWritable sales : values)
{
Integer intSales = new Integer(sales.toString());
sum += intSales;
}
// create hbase put with rowkey as date
Put insHBase = new Put(key.get());
// insert sum value to hbase
insHBase.add(Bytes.toBytes("cf1"), Bytes.toBytes("sum"), Bytes.toBytes(sum));
// write data to Hbase table
context.write(null, insHBase);
和司机:
public class testDriver
{
public static void main(String[] args) throws Exception
{
Configuration conf = new Configuration();
// define scan and define column families to scan
Scan scan = new Scan();
scan.addFamily(Bytes.toBytes("cf1"));
Job job = Job.getInstance(conf);
job.setJarByClass(testDriver.class);
// define input hbase table
TableMapReduceUtil.initTableMapperJob("test1", scan, testMapper.class, ImmutableBytesWritable.class, IntWritable.class, job);
// define output table
TableMapReduceUtil.initTableReducerJob("test2", testReducer.class, job);
job.waitForCompletion(true);
}
}
最佳答案
context.write(null, insHBase);
问题是您正在将 Put out 写入上下文,而 hbase 需要一个 IntWritable。
您应该将输出写到上下文中,让 Hbase 负责存储它们。 Hase 期望存储一个 IntWritable,但您正在向它传递一个扩展 Mutation 的 Put 操作。
Hbase 的工作流是您将配置将输出放在配置中的位置,然后简单地将输出写到上下文中。您不必在 reducer 中执行任何手动 Put 操作。
关于java - 如何解决从 IntWritable 到 Mutation 的转换错误?映射减少 HBase,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26507382/
在编写示例代码以测试 hadoop 中的自定义数据时。我收到以下错误: The method set(int) in the type IntWritable is not applicable fo
我正在使用 mapreduce 在 hadoop 上开发一些代码,它使用了两个映射器和两个缩减器。我被告知要使用 SequenceFileInputFormat 和 SequenceFileOut
public static WritableComparator get(Class c) WritableComparator 中的 get 方法接受一个类类型的对象作为参数 RawComparat
我明白 VIntWritable与 IntWritable 相比,可以显着减少存储整数所需的大小. 我的问题是:使用 VIntWritable 而不是 IntWritable 的成本是多少?是(仅)压
我有以下代码,我不明白为什么在突出显示的行中使用了 get() 方法。如果我删除 get() 方法,它会抛出一个错误。 我可以从中得到的是:get() 方法返回 IntWritable 的 int 值
我在下面写了reduce()确定给定年份的最高记录温度的方法。 (map() 的输出给出了一年中记录的温度列表。) public void reduce(IntWritable year
关闭。这个问题是not reproducible or was caused by typos .它目前不接受答案。 这个问题是由于错别字或无法再重现的问题引起的。虽然类似的问题可能是on-topi
有没有办法获取Intwritable的范围? IntWritable 是否有等同于 Int.MAX_VALUE 的东西? 最佳答案 Integer 是原始 int 数据类型的包装器,这使得它有资格在
我的问题可能很愚蠢,但请耐心等待。 在 Java 中,int 是一种数据类型,而 Integer 是一种对 int 进行包装的类型。如果我们谈论 Hadoop,可以使用 IntWritable 而不是
这看起来像是一个愚蠢的问题,但我在我的 hadoop mapreduce 代码中没有看到我的类型中的问题 如问题中所述,问题在于它期望 IntWritable 但我在 reducer 的 collec
我正在使用两个映射器和两个缩减器。我收到以下错误: java.lang.ClassCastException: org.apache.hadoop.io.LongWritable cannot be
在我的应用程序中,我需要使用年份作为键值。我认为 Text 更适合 key,因为我们通常按年份对特定度量进行分组,而 IntWritable 用于我们求和或平均的值。但我也认为我们可以使用 IntWr
错误的原因可能是什么?我能够在mac eclipse上成功编译。但是不在运行CDH4的hadoop服务器上。 root @ hadoop]#javac -cp /usr/lib/hadoop/hado
我的测试集是: Onida|Lucid|18|Uttar Pradesh|232401|16200 Akai|Decent|16|Kerala|922401|12200 Lava|Attention|
当我尝试将 IntWritable 从我的映射器传递到我的缩减器时出现以下错误: INFO mapreduce.Job: Task Id : attempt_1413976354988_0009_r_
我想在 Hadoop 中将 String 对象转换为 IntWritable 对象。任何过程都可以转换。 最佳答案 IntWritable value = new IntWritable(Intege
我想取输入文件中给出的温度的平均值,我的 Mapper 和 Reducer 语法对我来说似乎没问题,但我仍然收到以下错误: Unable to load realm info from SCDyna
为什么Hadoop需要引入这些新类?它们似乎只是使界面复杂化 最佳答案 为了以 Hadoop 方式处理对象。比如hadoop使用的是Text,而不是java的String。 hadoop中的Text类
从逻辑上读取带有 Int 和 String 的序列文件, 然后如果我这样做: val sequence_data = sc.sequenceFile("/seq_01/seq-directory/*"
我的 mapreduce 应用程序如下所示。我想对字符串中的 3 个值求和 public class StockCount { public static class MapperClass
我是一名优秀的程序员,十分优秀!