gpt4 book ai didi

scala - 如何使用FileFormat格式的更新输出模式?

转载 作者:行者123 更新时间:2023-12-02 03:04:52 26 4
gpt4 key购买 nike

我正在尝试在更新输出模式下使用 Spark 结构化流写入文件。我发现this StructuredSessionization example只要配置了控制台格式,它就可以正常工作。但如果我将输出模式更改为:

 val query = sessionUpdates
.writeStream
.outputMode("update")
.format("json")
.option("path", "/work/output/data")
.option("checkpointLocation", "/work/output/checkpoint")
.start()

我收到以下错误:

 Exception in thread "main" org.apache.spark.sql.AnalysisException: Data source json does not support Update output mode;
at org.apache.spark.sql.execution.datasources.DataSource.createSink(DataSource.scala:279)
at org.apache.spark.sql.streaming.DataStreamWriter.start(DataStreamWriter.scala:286)
at palyground.StructuredStreamingMergeSpans$.main(StructuredStreamingMergeSpans.scala:84)
at palyground.StructuredStreamingMergeSpans.main(StructuredStreamingMergeSpans.scala)

我可以使用更新模式并使用 FileFormat 将结果表写入文件接收器吗?在源代码中我发现了一个确保追加模式的模式匹配。

最佳答案

您无法使用 Spark 结构化流以更新模式写入文件。您需要为其编写ForeachWriter。我在这里为每个作家写了简单的内容。您可以根据您的要求进行修改。

val writerForText = new ForeachWriter[Row] {
var fileWriter: FileWriter = _

override def process(value: Row): Unit = {
fileWriter.append(value.toSeq.mkString(","))
}

override def close(errorOrNull: Throwable): Unit = {
fileWriter.close()
}

override def open(partitionId: Long, version: Long): Boolean = {
FileUtils.forceMkdir(new File(s"src/test/resources/${partitionId}"))
fileWriter = new FileWriter(new File(s"src/test/resources/${partitionId}/temp"))
true

}
}

val query = sessionUpdates
.writeStream
.outputMode("update")
.foreach(writerForText)
.start()

关于scala - 如何使用FileFormat格式的更新输出模式?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49026429/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com