gpt4 book ai didi

scala - Spark 结构化流媒体 avro 到 avro 和自定义 Sink

转载 作者:行者123 更新时间:2023-12-02 07:27:47 25 4
gpt4 key购买 nike

有人可以给我推荐一个在 S3 或任何文件系统中编写 avro 的好例子吗?我正在使用自定义 Sink,但我想通过 SinkProvider 的构造函数传递一些属性 Map,我猜这些属性可以进一步传递给 Sink?

更新的代码:

val query = df.mapPartitions { itr =>
itr.map { row =>
val rowInBytes = row.getAs[Array[Byte]]("value")
MyUtils.deserializeAvro[GenericRecord](rowInBytes).toString
}
}.writeStream
.format("com.test.MyStreamingSinkProvider")
.outputMode(OutputMode.Append())
.queryName("testQ" )
.trigger(ProcessingTime("10 seconds"))
.option("checkpointLocation", "my_checkpoint_dir")
.start()

query.awaitTermination()

接收器提供者:

class MyStreamingSinkProvider extends StreamSinkProvider {

override def createSink(sqlContext: SQLContext, parameters: Map[String, String], partitionColumns: Seq[String], outputMode: OutputMode): Sink = {
new MyStreamingSink
}
}

水槽:

class MyStreamingSink extends Sink with Serializable {

final val log: Logger = LoggerFactory.getLogger(classOf[MyStreamingSink])

override def addBatch(batchId: Long, data: DataFrame): Unit = {
//For saving as text doc
data.rdd.saveAsTextFile("path")

log.warn(s"Total records processed: ${data.count()}")
log.warn("Data saved.")
}
}

最佳答案

您应该能够通过 writeStream.option(key, value) 将参数传递到自定义接收器:

DataStreamWriter writer = dataset.writeStream()
.format("com.test.MyStreamingSinkProvider")
.outputMode(OutputMode.Append())
.queryName("testQ" )
.trigger(ProcessingTime("10 seconds"))
.option("key_1", "value_1")
.option("key_2", "value_2")
.start()

在这种情况下,方法MyStreamingSinkProvider.createSink(...)中的参数将包含key_1key_2

关于scala - Spark 结构化流媒体 avro 到 avro 和自定义 Sink,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49339469/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com