gpt4 book ai didi

scala - 无法解析带有流源的查询必须使用 writeStream.start() Scala 执行

转载 作者:行者123 更新时间:2023-12-05 04:48:57 26 4
gpt4 key购买 nike

我无法解决以下异常“必须使用 writeStream.start(); 执行带有流源的查询;卡夫卡”

我的代码如下:

val spark = SparkSession
.builder()
.getOrCreate()

val bootstrapServers = "localhost:9092"
val topicName = "name"

val df = spark
.readStream
.format("kafka")
.option("kafka.bootstrap.servers", bootstrapServers)
.option("subscribe", topicName)
.option("group.id", "Structured-Streaming-kpi")
.option("failOnDataLoss", false)
.load()

df.writeStream
.format("console")
.start()
.awaitTermination();
df.show()

最佳答案

我觉得是这个问题df.show()

您的 df 已写入控制台。

尝试删除它,看看会发生什么

关于scala - 无法解析带有流源的查询必须使用 writeStream.start() Scala 执行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/67739737/

26 4 0
文章推荐: python - 使用 Python 在 Plotly 中分组图例
文章推荐: python - SQLAlchemy mixin,如何从它们继承和变量关系
文章推荐: php - 如果 WooCommerce 购物车至少包含 X 产品,则自动添加百分比折扣
文章推荐: javascript - 如何更改