- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我使用了一个映射器、一个缩减器和一个组合器类,但出现如下错误:
java.io.IOException: wrong value class: class org.apache.hadoop.io.Text is not class org.apache.hadoop.io.IntWritable
at org.apache.hadoop.mapred.IFile$Writer.append(IFile.java:199)
at org.apache.hadoop.mapred.Task$CombineOutputCollector.collect(Task.java:1307)
at org.apache.hadoop.mapred.Task$NewCombinerRunner$OutputConverter.write(Task.java:1623)
at org.apache.hadoop.mapreduce.task.TaskInputOutputContextImpl.write(TaskInputOutputContextImpl.java:89)
at org.apache.hadoop.mapreduce.lib.reduce.WrappedReducer$Context.write(WrappedReducer.java:105)
at BookPublished1$Combine.reduce(BookPublished1.java:47)
at BookPublished1$Combine.reduce(BookPublished1.java:1)
at org.apache.hadoop.mapreduce.Reducer.run(Reducer.java:171)
at org.apache.hadoop.mapred.Task$NewCombinerRunner.combine(Task.java:1644)
at org.apache.hadoop.mapred.MapTask$MapOutputBuffer.sortAndSpill(MapTask.java:1618)
at org.apache.hadoop.mapred.MapTask$MapOutputBuffer.flush(MapTask.java:1467)
at org.apache.hadoop.mapred.MapTask$NewOutputCollector.close(MapTask.java:699)
at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:769)
at org.apache.hadoop.mapred.MapTask.run(MapTask.java:339)
at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:162)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1491)
at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:157)
我的整个程序如下所示:
import java.io.IOException;
import org.apache.hadoop.io.FloatWritable;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.fs.Path;
public class BookPublished1 {
public static class Map extends Mapper<LongWritable,Text,Text,IntWritable>{
public void map(LongWritable key, Text value,Context context)
throws IOException,InterruptedException {
String line = value.toString();
String [] strYear = line.split(";");
context.write(new Text(strYear[3]), new IntWritable(1));
}
}
public static class Combine extends Reducer<Text,IntWritable,Text,Text>{
public void reduce(Text key, Iterable<IntWritable> values,Context context)
throws IOException,InterruptedException {
int sum=0;
// TODO Auto-generated method stub
for(IntWritable x: values)
{
sum+=x.get();
}
context.write(new Text("BookSummary"), new Text(key + "_"+ sum));
}
}
public static class Reduce extends Reducer<Text,Text,Text,FloatWritable>{
public void reduce(Text key, Iterable<Text> values,Context context)throws IOException,InterruptedException
{
Long publishYear =0L, max=Long.MAX_VALUE;
Text publishYear1 = null,maxYear=null;
Long publishValue= 0L;
String compositeString;
String compositeStringArray[];
// TODO Auto-generated method stub
for(Text x: values)
{
compositeString = x.toString();
compositeStringArray = compositeString.split("_");
publishYear1=new Text(compositeStringArray[0]);
publishValue=new Long(compositeStringArray[1]);
if(publishValue > max){
max=publishValue;
maxYear=publishYear1;
}
}
Text keyText= new Text("max" + " ( " + maxYear.toString() + ") : ");
context.write(keyText, new FloatWritable(max));
}
}
public static void main(String[] args) throws Exception {
Configuration conf= new Configuration();
Job job = new Job(conf,"BookPublished");
job.setJarByClass(BookPublished1.class);
job.setMapperClass(Map.class);
job.setReducerClass(Reduce.class);
job.setCombinerClass(Combine.class);
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(IntWritable.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(FloatWritable.class);
job.setInputFormatClass(TextInputFormat.class);
job.setOutputFormatClass(TextOutputFormat.class);
Path outputPath = new Path(args[1]);
FileInputFormat.addInputPath(job, new Path(args[0]));
FileOutputFormat.setOutputPath(job, new Path(args[1]));
outputPath.getFileSystem(conf).delete(outputPath);
System.exit(job.waitForCompletion(true) ? 0 : 1);
}
}
请帮我解决问题。
最佳答案
组合器的输出类型必须匹配映射器的输出类型。 Hadoop 不保证组合器被应用了多少次,甚至根本不保证它被应用了。这就是你的情况。
来自 map ( <Text, IntWritable>
) 的值直接进入 reduce 类型 <Text, Text>
预计。
关于java - 错误值类 : class org. apache.hadoop.io.Text 不是类 org.apache.hadoop.io.IntWritable,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30546957/
在编写示例代码以测试 hadoop 中的自定义数据时。我收到以下错误: The method set(int) in the type IntWritable is not applicable fo
我正在使用 mapreduce 在 hadoop 上开发一些代码,它使用了两个映射器和两个缩减器。我被告知要使用 SequenceFileInputFormat 和 SequenceFileOut
public static WritableComparator get(Class c) WritableComparator 中的 get 方法接受一个类类型的对象作为参数 RawComparat
我明白 VIntWritable与 IntWritable 相比,可以显着减少存储整数所需的大小. 我的问题是:使用 VIntWritable 而不是 IntWritable 的成本是多少?是(仅)压
我有以下代码,我不明白为什么在突出显示的行中使用了 get() 方法。如果我删除 get() 方法,它会抛出一个错误。 我可以从中得到的是:get() 方法返回 IntWritable 的 int 值
我在下面写了reduce()确定给定年份的最高记录温度的方法。 (map() 的输出给出了一年中记录的温度列表。) public void reduce(IntWritable year
关闭。这个问题是not reproducible or was caused by typos .它目前不接受答案。 这个问题是由于错别字或无法再重现的问题引起的。虽然类似的问题可能是on-topi
有没有办法获取Intwritable的范围? IntWritable 是否有等同于 Int.MAX_VALUE 的东西? 最佳答案 Integer 是原始 int 数据类型的包装器,这使得它有资格在
我的问题可能很愚蠢,但请耐心等待。 在 Java 中,int 是一种数据类型,而 Integer 是一种对 int 进行包装的类型。如果我们谈论 Hadoop,可以使用 IntWritable 而不是
这看起来像是一个愚蠢的问题,但我在我的 hadoop mapreduce 代码中没有看到我的类型中的问题 如问题中所述,问题在于它期望 IntWritable 但我在 reducer 的 collec
我正在使用两个映射器和两个缩减器。我收到以下错误: java.lang.ClassCastException: org.apache.hadoop.io.LongWritable cannot be
在我的应用程序中,我需要使用年份作为键值。我认为 Text 更适合 key,因为我们通常按年份对特定度量进行分组,而 IntWritable 用于我们求和或平均的值。但我也认为我们可以使用 IntWr
错误的原因可能是什么?我能够在mac eclipse上成功编译。但是不在运行CDH4的hadoop服务器上。 root @ hadoop]#javac -cp /usr/lib/hadoop/hado
我的测试集是: Onida|Lucid|18|Uttar Pradesh|232401|16200 Akai|Decent|16|Kerala|922401|12200 Lava|Attention|
当我尝试将 IntWritable 从我的映射器传递到我的缩减器时出现以下错误: INFO mapreduce.Job: Task Id : attempt_1413976354988_0009_r_
我想在 Hadoop 中将 String 对象转换为 IntWritable 对象。任何过程都可以转换。 最佳答案 IntWritable value = new IntWritable(Intege
我想取输入文件中给出的温度的平均值,我的 Mapper 和 Reducer 语法对我来说似乎没问题,但我仍然收到以下错误: Unable to load realm info from SCDyna
为什么Hadoop需要引入这些新类?它们似乎只是使界面复杂化 最佳答案 为了以 Hadoop 方式处理对象。比如hadoop使用的是Text,而不是java的String。 hadoop中的Text类
从逻辑上读取带有 Int 和 String 的序列文件, 然后如果我这样做: val sequence_data = sc.sequenceFile("/seq_01/seq-directory/*"
我的 mapreduce 应用程序如下所示。我想对字符串中的 3 个值求和 public class StockCount { public static class MapperClass
我是一名优秀的程序员,十分优秀!