- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我在hadoop上写一个项目。我有一个一维字符串数组。它的名称是“words”。
想要将其发送到 reducer ,但出现此错误:
Exception in thread "main" java.lang.NoSuchMethodError:org.apache.hadoop.mapred .InputSplit.write(Ljava/io/DataOutput;)V
public abstract class Mapn implements Mapper<LongWritable, Text, Text, Text>{
@SuppressWarnings("unchecked")
public void map(LongWritable key, Text value, Context con) throws IOException, InterruptedException
{
String line = value.toString();
String[] words=line.split(",");
for(String word: words )
{
Text outputKey = new Text(word.toUpperCase().trim());
con.write(outputKey, words);
}
}
}
最佳答案
当我学习hadoop
mapreduce
工具时,除了编写传统的WordCount
程序外,我还编写了自己的程序,然后为此导出了jar。现在好了,我正在共享使用hadoop-1.2.1
jar依赖关系为其编写的程序。它用于转换数字并将其写在单词中,并且在4个lacs数字上进行了处理,没有任何错误。
所以这是程序:
package com.whodesire.count;
import java.io.IOException;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;
import com.whodesire.numstats.AmtInWords;
public class CountInWords {
public static class NumberTokenizerMapper
extends Mapper <Object, Text, LongWritable, Text> {
private static final Text theOne = new Text("1");
private LongWritable longWord = new LongWritable();
public void map(Object key, Text value, Context context) {
try{
StringTokenizer itr = new StringTokenizer(value.toString());
while (itr.hasMoreTokens()) {
longWord.set(Long.parseLong(itr.nextToken()));
context.write(longWord, theOne);
}
}catch(ClassCastException cce){
System.out.println("ClassCastException raiseddd...");
System.exit(0);
}catch(IOException | InterruptedException ioe){
ioe.printStackTrace();
System.out.println("IOException | InterruptedException raiseddd...");
System.exit(0);
}
}
}
public static class ModeReducerCumInWordsCounter
extends Reducer <LongWritable, Text, LongWritable, Text>{
private Text result = new Text();
//This is the user defined reducer function which is invoked for each unique key
public void reduce(LongWritable key, Iterable<Text> values,
Context context) throws IOException, InterruptedException {
/*** Putting the key, which is a LongWritable value,
putting in AmtInWords constructor as String***/
AmtInWords aiw = new AmtInWords(key.toString());
result.set(aiw.getInWords());
//Finally the word and counting is sent to Hadoop MR and thus to target
context.write(key, result);
}
}
public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
/****
*** all random numbers generated inside input files has been
*** generated using url https://andrew.hedges.name/experiments/random/
****/
//Load the configuration files and add them to the the conf object
Configuration conf = new Configuration();
String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
Job job = new Job(conf, "CountInWords");
//Specify the jar which contains the required classes for the job to run.
job.setJarByClass(CountInWords.class);
job.setMapperClass(NumberTokenizerMapper.class);
job.setCombinerClass(ModeReducerCumInWordsCounter.class);
job.setReducerClass(ModeReducerCumInWordsCounter.class);
//Set the output key and the value class for the entire job
job.setMapOutputKeyClass(LongWritable.class);
job.setMapOutputValueClass(Text.class);
//Set the Input (format and location) and similarly for the output also
FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
//Setting the Results to Single Target File
job.setNumReduceTasks(1);
//Submit the job and wait for it to complete
System.exit(job.waitForCompletion(true) ? 0 : 1);
}
}
关于java - 如何修复NoSuchMethodError:org.apache.hadoop.mapred.InputSplit.write,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48043029/
我刚刚开始学习 Mapreduce 并且有一些我想回答的问题。开始: 1)案例1:FileInputFormat作为输入格式。具有多个要处理的文件的目录是输入路径。如果我有 n 个文件,所有文件小于
在 hadoop 中,我想将一个文件(几乎)平均分配给每个映射器。该文件很大,我想使用在作业开始时定义的特定数量的映射器。现在我已经自定义了输入拆分,但我想确保如果我将文件拆分为两个(或多个拆分)我不
我正在尝试深入了解 map reduce 架构。我正在咨询这个http://answers.oreilly.com/topic/2141-how-mapreduce-works-with-hadoop
我正在做一项 Hadoop 工作,对一个或多个可能非常大的 PGM 文件进行卷积。每个映射器将处理来自其中一个文件的一定数量的行,并且缩减器将文件重新组合在一起。但是,每个映射器都需要在其进行卷积的上
据我所知,在将文件复制到 HDFS 时进行文件拆分和在文件上为映射器输入进行输入拆分是完全两种不同的方法。 这是我的问题-- 假设我的 File1 大小是 128MB,它被分成两个 block 并存储
我有一个 100 TB 的文本文件,它有多行记录。而且我们没有给出每条记录占用多少行。一个记录可以是 5 行,另一个可以是 6 行,另一个可以是 4 行。不确定每条记录的行大小是否不同。 所以我不能使
以下是我对 InputSplits 及其与映射器的交互的理解...如果我在某处有误,请纠正我... InputFormat 生成 InputSplits,并为每个 inputsplit 生成一个映射任
我了解到,在 Hadoop 中,大输入文件拆分为小文件,并通过映射函数在不同的节点中进行处理。我还了解到我们可以自定义 InputSplit。我想知道的是 InputSplit 是否可以进行以下类型的
假设存储在 HDFS 中时, block 大小是默认的 64MB。现在我将 InputSplit 大小更改为 128MB。 其中一个数据节点在本地只存储了 1 个信息 block 。 JobTrack
让我们考虑一个生成 1000 个 map task 的 MapReduce 作业。区 block 大小:128MB最小拆分大小:1MB最大拆分大小:256MB block 大小似乎是限制值。我们能
我使用的是 Spark 1.2.1、Hbase 0.98.10 和 Hadoop 2.6.0。在从 hbase 检索数据时出现空点异常。 在下面找到堆栈跟踪。 [sparkDriver-akka.ac
如果我有一个包含 1000 行的数据文件......并且我在我的字数统计程序的 map 方法中使用了 TextInputFormat。因此,数据文件中的每一行都将被视为一个拆分。 RecordRead
我在hadoop上写一个项目。我有一个一维字符串数组。它的名称是“words”。 想要将其发送到 reducer ,但出现此错误: Exception in thread "main" java.la
我正在使用 hadoop-2.4.0,所有默认配置如下: FileInputFormat.setInputPaths(job, new Path("in")); //10mb file; just
我使用自定义 InputFormat 和 RecordReader 创建了自定义 loadFunc。每当 InputFormat 返回多个输入拆分时,PigSplit 始终仅包含一个输入拆分并且仅使用
我得到一个 NullPointerException启动 MapReduce 时工作。它被 SerializationFactory 抛出的 getSerializer()方法。我正在使用自定义 In
我想用 scala 读取 Hbase by Spark,但是我得到了错误: 线程“dag-scheduler-event-loop”java.lang.NoSuchMethodError 中的异常:o
我是一名优秀的程序员,十分优秀!