- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
目标:实现Reduce Side Join
我的代码中目前有作业链(两个作业)。现在我想在减少端加入另一份工作。而且我必须接受多个输入:
Input #1:
前一个 reducer 的输出。
Input #2:
来自 HDFS 的新文件以实现连接。
看了一些关于如何使用的文章MultipleInputs.addInputhPath(job, Path, InputFormat.class, Mapper.class);
所以我明白我必须使用它两次,一次用于 Input #1
一次是 Input #2
.
Question 1:
那么如果我使用两个单独的映射器和一个单一的缩减器,哪个映射器将首先执行(或者它们将被并行执行)?如何在 reducer 端检查哪个 mapper 发出了 <key, value>
对?
Question 2:
如果我使用单个 mapper 和单个 reducer,控制流程会怎样?
Question 3:
更多的 Hack,即不使用 MultipleInputs
使用DistributedCache
是否可以(性能方面)?加载Input #2
在 reducer 的setup()
方法?并将前一个 reducer 的输出作为作业的唯一输入。
Note:
Input #2
文件很小。
最佳答案
答案 1:
Map
如果插槽可用,则两个映射器的任务应该并行运行。单个插槽的存在可能会导致它们按顺序运行(可能会交错),但这不是正常情况。如果 Mapper 序列有一些配置,我不知道这一点。
我再次怀疑 api
可用于识别哪个 Mapper 发出了 <key, value>
.准确的说,只是value
的标识是必需的,因为相同的 key
可能由不同的 map 发出。这通常是通过向输出值添加前缀标签并在 reducer 中解析这些标签来实现的。例如:
if(value.toString.startsWith("Input#1")){ //processing code }
看看这个blogpost ,它具有所有必需的提示和技巧。请注意,所有这些示例都使用旧的 mapred
接口(interface)。但无论如何,逻辑都是一样的。
答案 2:
没有 MultipleInputs
, 在 Map
您必须使用可用的 Context
来识别传入对的文件名目的。例如:
public void map(LongWritable key, Text value, Context context)
throws IOException, InterruptedException {
String fileName = ((FileSplit) context.getInputSplit()).getPath().getName();
//............
}
然后只需在输出值前添加一个合适的标签,其余与 answer1 相同。
答案 3:
这很棘手。使用DistributedCache
当要添加到缓存的文件很小时,加入可以提高性能。这可能是因为作业现在以较少数量的 Map
运行。任务。但它对大文件有不利影响。难题是要知道有多少字节被认为是 DistributedCache
的小字节。 .
既然您提到输入 #2 文件非常小,那么这应该是最适合您的解决方案。
注意:这篇文章的许多评论都是(有点)基于意见的。期待专家的意见。
关于java - 具有 MultipleInputs 的 Hadoop 映射器的控制流程是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26538855/
如何最简单地运行多个不同的映射器类(使用 MultipleInputs),所有映射器类都使用相同的输入格式,但使用不同的输入分隔符? MultipleInput 允许您添加多个映射器,每个映射器都有自
我的 mapreduce 作业之一是使用 MultipleInputs。工作完成后,我想删除输入文件。不幸的是,MultipleInputs 的 API 非常有限,并且不提供 FileInputFor
所以,我想与 MR 执行 reduce side join。 (没有 Hive 或任何东西,我正在尝试 Vanilla Hadoop atm)。 我有 2 个输入文件,首先是这样的: 12 13 12
我在我们的 Yarn 集群上使用新的 MapReduce Api。我需要从两个不同的目录中读取两种不同格式的文件。为此,我决定使用 MultipleInputs 来指定两个映射器类。以下是我的工作驱动
出于学习目的,我正在使用 Java 中的 Hadoop(没有 Pig 或 Hive)编写 TF-IDF。我将把它分成三轮:字数统计、每个文档的字数统计,最后是每个字的 docCount。 我相信主要的
我的hadoop版本是1.0.3,当我使用multipleinputs时,我得到了这个错误。 java.lang.ClassCastException: org.apache.hadoop.mapre
目标:实现Reduce Side Join 我的代码中目前有作业链(两个作业)。现在我想在减少端加入另一份工作。而且我必须接受多个输入: Input #1:前一个 reducer 的输出。 Input
最近版本的 Hadoop 已经使用 FileInputFormat.setInputDirRecursive 轻松支持嵌套输入目录,它依赖于 mapreduce.input.fileinputform
我的现有系统从特定文件夹读取所有文件,并在其上运行 MapReduce。代码如下: Path path = new Path(inputPath) if (!FileSystem.ge
我有一个问题。 我需要两个文件作为 mapreduce 程序的输入。 @Override public int run(String[] args) throws Exception { (a
我正在尝试编写一个程序,其中包含 2 个同时执行的映射器和一个缩减器。每个映射器都有不同的输入文件。基本上,我正在尝试进行减少端连接。但是当我通过以下方式声明我的工作时出现错误: public sta
我正在尝试连接两个数据集,一个存储在 Hive 表中,另一个不存储。根据人们的做法,我看到这不是很正常,因为他们要么将所有内容定义为 Hive 表,要么不定义。 现在有 MultipleInputs
我在使用 hadoop 时使用了 MultipleInputs 。因为我有多个映射器分配给不同的输入。我想知道 EMR 是否也支持它。 在hadoop中我是这样操作的。这些是我的不同文件的映射器。在这
我是一名优秀的程序员,十分优秀!