gpt4 book ai didi

apache-kafka - 如何从 Spark 结构化流中的特定 Kafka 分区读取

转载 作者:行者123 更新时间:2023-12-05 01:41:17 24 4
gpt4 key购买 nike

我的 Kafka 主题有三个分区,我想知道我是否可以只从三个分区中的一个分区读取数据。我的消费者是 spark 结构化流应用程序。

下面是我在 spark 中现有的 kafka 设置。

  val inputDf = spark.readStream
.format("kafka")
.option("kafka.bootstrap.servers", brokers)
.option("subscribe", topic)
.option("startingOffsets", "latest")
.load()

最佳答案

以下是您可以从特定分区读取数据的方法。

 val inputDf = spark.readStream
.format("kafka")
.option("kafka.bootstrap.servers", brokers)
.option("assign", """{"topic":[0]}""")
.option("startingOffsets", "latest")
.load()

PS:要从多个分区而不是 1 读取 --> """{"topic":[0,1,2..n]}"""

关于apache-kafka - 如何从 Spark 结构化流中的特定 Kafka 分区读取,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54703838/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com