- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
当我复制并粘贴 apache Spark 主页中的 WordCount 示例时,出现以下错误。 (我使用Java 1.8作为lambda表达式)
JavaPairRDD<String, Integer> countsk = input.flatMap(x -> Arrays.asList(x.split(" ")).iterator()) //where error occurred.
.mapToPair(x -> new Tuple2<>(x, 1))
.reduceByKey((x, y) -> x + y);
Error message : no instances of type variable(s) U exist so that iterator<String> conforms to Iterable<U>.
收到此错误消息后,我修复了如下代码,并且运行良好。
JavaRDD<String> words = input.flatMap(str -> Arrays.asList(str.split(" ")));
JavaPairRDD<String, Integer> pairs = words.mapToPair(str -> new Tuple2<>(str, 1));
JavaPairRDD<String, Integer> counts = pairs.reduceByKey((a, b) -> a + b);
但是,这对我来说有点奇怪,因为我只是复制并粘贴了 apache Spark 提供的代码。为什么我会收到这样的错误以及如何解决上述问题?
我认为flatMap
返回迭代器类型。从这个角度来看,我认为给出错误消息的第一个代码比下面的代码更准确。我有点困惑。
最佳答案
事实上,在使用 flatMap 和 flatMapToPair 时,输出会根据所使用的 Spark 版本而有所不同:
在 Spark 版本 2 中,需要您发回集合上的迭代器
而不是版本2下spark中使用的集合。
因此,您的 Spark 版本可能是 1.6,因此会出现此问题。
关于java - 当我在 Java 1.8 中使用 Spark 执行 WordCount 示例时出现与迭代器相关的错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51284678/
我用eclipse调试hadoop,出现错误,如何解决这个问题 log4j:WARN No appenders could be found for logger (org.apache.hadoop
见下面的代码: unordered_map wordCount; for(string word: words) ++wordCount[word]; 问题: 当wordCount 中不存在w
我正在尝试从这里开始学习 GCP Cloud Dataflow 的“使用 Java 快速入门”https://cloud.google.com/dataflow/docs/quickstarts/qu
我尝试在代码中构建和调试扩展。 我从https://github.com/microsoft/vscode-wordcount下载了字数统计的样本. 当我单击 F5 时,未生成 ./out 文件夹,并
我是 hadoop 的新手。我按照 maichel-noll 教程在单节点中设置 hadoop。我尝试运行 WordCount 程序。这是我使用的代码: import java.io.IOExcept
我是hadoop编程新手。我正在使用eclipse进行hadoop开发。我通过java buildpath添加了所有jar文件,当我运行我的程序时它没有运行并给出这个错误,所以请帮助我。如何解决错误?
我想使用eclipse调试wordcount,因为我想查看作业如何在JobTracker中运行。但是hadoop使用Proxy,我不知道该作业如何在JobTracker中运行的具体过程。我应该如何调试
我正在尝试运行保证消息处理的 WordCount 示例。 只有一个喷口 WSpout - 发出带有 msgID 的随机句子。 和两个 bolt SplitSentence - 在单词中拆分句子并使用锚
我正在做一个类项目,该项目计算文本文件中的单词、行、字符和段落的总数。到目前为止,就文字而言,它是有效的,但我的字符数似乎减少了 3 个,并且该段落似乎正在计算两个额外的空行,我得到的是 5 个而不是
我是 hadoop 的新手,正在运行一些示例以更加熟悉它。我运行了 wordcount,当我去检查输出时 hadoop fs -cat outt 我得到了 3 个目录,而不是通常名为 outt/par
有谁知道如何解决这个错误?我了解到我可以在 fileutils.setPermission 中进行编辑并使用 checkReturnValue 删除行,但我不知道如何操作。 13/03/10 13:0
我正在尝试运行一个程序,按照此链接中给出的步骤来计算单词的数量及其频率:http://developer.yahoo.com/hadoop/tutorial/module3.html 我加载了一个名为
每当尝试在Hadoop系统中运行Reducer python程序时,都会出现此错误。 Mapper程序可以完美运行。与我的Mapper程序具有相同的权限。是否存在语法错误? 追溯(最近一次通话): 在
我在获取每个文件的单词出现总数的分割时遇到了问题。 例如,我有四个文本文件(t1、t2、t3、t4)。单词 w1 在文件 t2 中出现了两次,在 t4 中出现了一次,总共出现了 3 次。 我想在输出文
我试图使用eclipse在hadoop多节点群集上运行wordcount java程序(该程序在单节点群集上工作正常,但在多节点上无法运行)。我正在返回关注信息 INFO ipc.Client: Re
我正在尝试这个java代码来计算mapreduce中的字数,在完成reduce方法后,我想显示出现最多次数的唯一单词。 为此,我创建了一些名为 myoutput、mykey 和completeSum
mark@maestro1:/usr/lib/hadoop/wordcount_classes$ javac -classpath /usr/lib/hadoop/hadoop-common-2.0.
引用基本的WordCount例子:https://hadoop.apache.org/docs/current/hadoop-mapreduce-client/hadoop-mapreduce-cli
成功创建 hadoop 环境后,当我要在版本 0.19.1 的 hadoop 中运行这个 wordcount 示例时,它给我这样的错误,我该如何解决 11/12/30 06:46:13 INFO ma
我在我的 mac 上的单个节点上运行 WordCount 并且它工作,所以我制作了另一个 MapReduce 应用程序并运行它,但它卡在 map 10% reduce 0% 并且有时在 map 0%
我是一名优秀的程序员,十分优秀!