- mongodb - 在 MongoDB mapreduce 中,如何展平值对象?
- javascript - 对象传播与 Object.assign
- html - 输入类型 ="submit"Vs 按钮标签它们可以互换吗?
- sql - 使用 MongoDB 而不是 MS SQL Server 的优缺点
我正在尝试使用 Twitter 作为源执行 Spark Streaming 示例,如下所示:
public static void main (String.. args) {
SparkConf conf = new SparkConf().setAppName("Spark_Streaming_Twitter").setMaster("local");
JavaSparkContext sc = new JavaSparkContext(conf);
JavaStreamingContext jssc = new JavaStreamingContext(sc, new Duration(2));
JavaSQLContext sqlCtx = new JavaSQLContext(sc);
String[] filters = new String[] {"soccer"};
JavaReceiverInputDStream<Status> receiverStream = TwitterUtils.createStream(jssc,filters);
jssc.start();
jssc.awaitTermination();
}
但是我遇到了以下异常
Exception in thread "main" java.lang.AssertionError: assertion failed: No output streams registered, so nothing to execute
at scala.Predef$.assert(Predef.scala:179)
at org.apache.spark.streaming.DStreamGraph.validate(DStreamGraph.scala:158)
at org.apache.spark.streaming.StreamingContext.validate(StreamingContext.scala:416)
at org.apache.spark.streaming.StreamingContext.start(StreamingContext.scala:437)
at org.apache.spark.streaming.api.java.JavaStreamingContext.start(JavaStreamingContext.scala:501)
at org.learning.spark.TwitterStreamSpark.main(TwitterStreamSpark.java:53)
有什么建议可以解决这个问题吗?
最佳答案
When an output operator is called, it triggers the computation of a stream.
如果 DStream 上没有输出运算符,则不会调用任何计算。基本上你需要在流上调用以下任何方法
print()
foreachRDD(func)
saveAsObjectFiles(prefix, [suffix])
saveAsTextFiles(prefix, [suffix])
saveAsHadoopFiles(prefix, [suffix])
http://spark.apache.org/docs/latest/streaming-programming-guide.html#output-operations
如果需要,您也可以先应用任何转换,然后再输出函数。
关于java - 为什么启动 StreamingContext 失败并显示 “IllegalArgumentException: requirement failed: No output operations registered, so nothing to execute” ?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24519660/
当两个进程启动时,我得到了类似的错误 java.lang.IllegalStateException: Only one StreamingContext may be started in this
我正在尝试设置一个 Sparkstreaming 代码,它从 Kafka 服务器读取行,但使用另一个本地文件中编写的规则处理它。我正在为流数据创建streamingContext,为其他应用所有其他s
我打电话 streamingContext.awaitTerminationOrTimeout(timeout) ,但我想制作 timeout环境依赖。 这意味着如果我的环境是 UAT,我想停止我的工
我有一些类似这样的代码: [DataContract] class Foo { [OnSerializing] private void BeforeSerialize(Streami
我打开 Spark shell spark-shell --packages org.apache.spark:spark-streaming-kafka_2.10:1.6.0 然后我想创建一个流上下
我正在尝试从本地计算机 (OSX) 上的文件夹中流式传输 CSV 文件。我将 SparkSession 和 StreamingContext 一起使用,如下所示: val sc: SparkConte
我正在尝试将一些数据传递到 DataContractSerializer 的 StreamingContext,但我不知道如何传递。这是我的代码的一小部分示例: MemoryStream stream
我是一名 Java 老手,正在尝试学习 Scala + Spark Streaming。我下载了基于 Eclipse 的 Scala IDE + Spark 核心 jar + Spark Stream
spark docs状态: Only one StreamingContext can be active in a JVM at the same time. 想象一下我计划从两个 Kafka 主题
我是 Spark Streaming 的新手,我正在尝试使用 Spark-shell 开始使用它。 假设我在spark-1.2.0-bin-hadoop2.4的根目录下放置了一个名为“dataTest
我试图了解 Json.NET 序列化回调中应该包含的 StreamingContext 参数是什么,首先我以为你会允许我访问正在读取的当前 json 树,但它似乎并没有,我尝试了 JSON 对象的可能
import org.apache.spark.streaming.{Seconds, StreamingContext} import org.apache.spark.streaming.even
我想概括一下我的 Main 中的接待情况。设置 SparkConf 和 JavaContextStreaming 后,我想接收任意对象,然后将其传递给分析器。 在下面的情况下,我遇到异常:任务不可序列
这个问题在这里已经有了答案: Why does starting StreamingContext fail with “IllegalArgumentException: requirement
大家好,下面的代码中似乎找不到 StreamingContext 类。 import org.apache.spark.streaming.{Seconds, StreamingContext} im
我正在尝试使用 Twitter 作为源执行 Spark Streaming 示例,如下所示: public static void main (String.. args) { SparkCo
我在尝试编写此脚本以在我的游戏中保存和加载时遇到这些错误。 Assets\Scripts\Save System\SaveData.cs(62,40): error CS0246: The typeo
当我在 yarn 上执行 Spark 流应用程序时,我继续收到以下错误 为什么会发生错误以及如何解决?任何建议都会有所帮助,谢谢~ 15/05/07 11:11:50 INFO dstream.Sta
据我了解,从目录流式传输文本文件需要 LongWritable 类型的 key , 值为 Text , 格式为 TextInputFormat .这些在 textFileStream() 中自动传递。
我是一名优秀的程序员,十分优秀!