- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我在 reducer 中使用 MultipleOutputs。多重输出会将文件写入名为 NewIdentities 的文件夹。代码如下所示:
private MultipleOutputs<Text,Text> mos;
@Override
public void reduce(Text inputKey, Iterable<Text> values, Context context) throws IOException, InterruptedException {
......
// output to change report
if (ischangereport.equals("TRUE")) {
mos.write(new Text(e.getHID()), new Text(changereport.deleteCharAt(changereport.length() - 1).toString()), "NewIdentities/");
}
}
}
@Override
public void setup(Context context) {
mos = new MultipleOutputs<Text,Text>(context);
}
@Override
protected void cleanup(Context context) throws IOException, InterruptedException {
mos.close();
}
它可以在以前运行。但是当我今天运行它时,它会抛出如下异常。我的 hadoop 版本是 2.4.0。
错误:org.apache.hadoop.fs.FileAlreadyExistsException:/CaptureOnlyMatchIndex9/TEMP/ChangeReport/NewIdentities/-r-00000 for client 192.168.71.128 already exists at org.apache.hadoop.hdfs.server.namenode.FSNamesystem. org.apache.hadoop.hdfs.server.namenode.FSNamesystem.startFileInt(FSNamesystem.java:2225) 在 org.apache.hadoop.hdfs.server.namenode.FSNamesystem.startFile(FSNamesystem. java:2178) 在 org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.create(NameNodeRpcServer.java:520) 在 org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.create(ClientNamenodeProtocolServerSideTranslatorPB.java:354) 在 org .apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java) 在 org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:585) 在 org.apache。 hadoop.ipc.RPC$Server.call(RPC.java:928) 在 org.apach e.hadoop.ipc.Server$Handler$1.run(Server.java:2013) 在 org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2009) 在 java.security.AccessController.doPrivileged( native 方法)在 javax.security.auth.Subject.doAs(Subject.java:415) 在 org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1548) 在 org.apache.hadoop.ipc.Server$ Handler.run(Server.java:2007) 在 sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method) 在 sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57) 在 sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java: 45) 在 java.lang.reflect.Constructor.newInstance(Constructor.java:526) 在 org.apache.hadoop.ipc.RemoteException.instantiateException(RemoteException.java:106) 在 org.apache.hadoop.ipc.RemoteException.unwrapRemoteException (RemoteException.java:73) 在 org.apache.hadoop.hdfs.DFSOutputStream.newStreamForCreate(DFSOutputStream.java:1604) 在 org.apache。 hadoop.hdfs.DFSClient.create(DFSClient.java:1465) 在 org.apache.hadoop.hdfs.DFSClient.create(DFSClient.java:1390) 在 org.apache.hadoop.hdfs.DistributedFileSystem$6.doCall(DistributedFileSystem.java :394) 在 org.apache.hadoop.hdfs.DistributedFileSystem$6.doCall(DistributedFileSystem.java:390) 在 org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81) 在 org.apache.hadoop.hdfs .DistributedFileSystem.create(DistributedFileSystem.java:390) 在 org.apache.hadoop.hdfs.DistributedFileSystem.create(DistributedFileSystem.java:334) 在 org.apache.hadoop.fs.FileSystem.create(FileSystem.java:906) 在org.apache.hadoop.fs.FileSystem.create(FileSystem.java:887) 在 org.apache.hadoop.fs.FileSystem.create(FileSystem.java:784) 在 org.apache.hadoop.mapreduce.lib.output。 TextOutputFormat.getRecordWriter(TextOutputFormat.java:132) 在 org.apache.hadoop.mapreduce.lib.output.MultipleOutputs.getRecordWriter(MultipleOutputs.java:475) 在
最佳答案
我找到了原因。因为在我的一个 reducer 中,它耗尽了内存。所以它隐式地抛出了一个内存不足的异常。 hadoop 停止当前的多重输出。也许另一个 reducer 线程想要输出,所以它创建了另一个多输出对象,所以发生了碰撞。
关于具有 FileAlreadyExistsException 的 Reducer 中的 Hadoop MultipleOutputs,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31350574/
我正在尝试将(键和值)写入reducer的不同文件中,但是我只有一个键和值的输出文件。 public static class Reduce extends Reducer { priva
我正在尝试使用 MultipleOutputs 编写多个输出文件。然而,我希望我的 FileOutputFormat 具有两种不同的格式,即不同文件的 Text 和 SequenceFileForma
当我运行带有 MultipleOutputs 的基本 MRUnit 时,出现以下异常: java.lang.NullPointerException at org.apache.hadoop.fs.P
我基本上是在尝试将我自己的 Tab 分隔值行写到 3 个不同的输出文件中。尽管定义和编写了不同的命名输出,但所有文件仍被命名为“part-r-*” 所有代码都经过匿名和压缩 驱动类如下所示: // S
当我运行带有和不带有 multipleOutputs 的 mapreduce 时,控制台日志之间存在差异。 我有一个仅输出到文本文件的映射器作业。 没有配置 MultipleOutputs, 我的映射
我使用 MultipleOutputs 将数据输出到一些绝对路径,而不是相对于 OutputPath 的路径。 然后,我得到错误: Error: org.apache.hadoop.ipc.Remot
我想知道 MultipleOutputs 与 FSDataOutputStream 与 Task Side Effect File 之间在创建不同输出文件方面的优势/差异? 一个。使用多重输出: Mu
我正在尝试从 cassandra 中读取并使用 MultipleOutputs api(Hadoop 版本 1.0.3)将 reducers 输出写入多个输出文件。在我的案例中,文件格式是扩展 Fil
我在我的 Reducer 中使用 MultipleOutputs,因为我想为每个键创建单独的结果文件,但是,尽管创建了默认结果文件 part-r-xxxx 并包含正确的值,但每个结果文件都是空的。 这
我正在使用 MultipleOutputs 编写三个文件,即名称、属性和其他文件,并使用 6 个 redcuer。我在我的输出目录中得到这些文件: attrib-r-00003 name-r-000
我在 mapreduce 作业中遇到问题,我希望输出文件的格式为 file-day-26而不是 part-r-00000 . 我已尝试使用 addNamedOutput 方法来完成此操作( Multi
我写了一个简单的字数统计程序并试图得到输出 基于较新API格式的Multipleoutputs,我得到了输出 输出文件中的数据(带有键的名称): import java.io.IOException;
我有一个 Mapper 类,它提供一个文本键和 IntWritable 值,可以是 1 2 或 3。根据这些值,我必须用不同的 key 编写三个不同的文件。我得到一个没有记录的单一文件输出。另外,是否
我在 reducer 中使用 MultipleOutputs。多重输出会将文件写入名为 NewIdentities 的文件夹。代码如下所示: private MultipleOutputs mos;
我正在使用 Hadoop 0.20.203.0。我想输出到两个不同的文件,所以我试图让 MultipleOutputs 工作。 这是我的配置方法: public static void main(St
我正在编写一个处理许多文件并从每个文件创建多个文件的 hadoop 作业。我正在使用“MultipleOutputs”来编写它们。它适用于较少数量的文件,但我收到大量文件的以下错误。在 Multipl
我已将 MultipleOutputs 配置为生成 2 个命名输出。我想发送一个到 s3n:// 和一个到 hdfs:// 这可能吗? 最佳答案 目前可用的 API 无法做到这一点。 Multiple
您好,我正在使用 Hadoop mapreduce,我正在使用多输出。下面是我的代码 mos = new MultipleOutputs(context); mos.write(key, value,
我目前有一个 MapReduce 作业,它使用 MultipleOutputs 将数据发送到多个 HDFS 位置。完成后,我使用 HBase 客户端调用(在 MR 之外)将一些相同的元素添加到几个 H
我正在压缩 Hadoop MR 作业的输出: conf.setOutputFormat(TextOutputFormat.class); TextOutputFormat.setCompressOut
我是一名优秀的程序员,十分优秀!