gpt4 book ai didi

scala - 如何使用 Spark Streaming 从 Kafka 读取二进制序列化的 Avro(Confluent Platform)

转载 作者:行者123 更新时间:2023-12-01 07:06:43 25 4
gpt4 key购买 nike

这些是使用 Confluent 平台序列化的 Avros。

我想找到一个像这样的工作示例:

https://github.com/seanpquig/confluent-platform-spark-streaming/blob/master/src/main/scala/example/StreamingJob.scala

但对于 Spark 结构化流。

 kafka
.select("value")
.map { row =>

// this gives me test == testRehydrated
val test = Foo("bar")
val testBytes = AvroWriter[Foo].toBytes(test)
val testRehydrated = AvroReader[Foo].fromBytes(testBytes)


// this yields mangled Foo data
val bytes = row.getAs[Array[Byte]]("value")
val rehydrated = AvroReader[Foo].fromBytes(bytes)

最佳答案

我们一直在研究这个可能有帮助的库:ABRiS (Avro Bridge for Spark)

它提供 API,用于在读取和写入操作(流式处理和批处理)中将 Spark 集成到 Avro。它还支持 Confluent Kafka 并与 Schema Registry 集成。

免责声明:我为 ABSA 工作,我是这个库背后的主要开发人员。

关于scala - 如何使用 Spark Streaming 从 Kafka 读取二进制序列化的 Avro(Confluent Platform),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41089069/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com