gpt4 book ai didi

scala - 从数据帧制作 avro 模式 - spark - scala

转载 作者:行者123 更新时间:2023-12-03 23:15:52 24 4
gpt4 key购买 nike

我想写一个流dataframes进入 kafkaavro格式;

我认为我应该发布 dataframe架构到 schema registry作为 avro schema 然后将 DF 流写入 kafka,指定该模式作为选项。

所以我需要知道如何推断 avro来自 dataframe 的架构能够在 schema registry 中发布它.

如果有另一种方式,我会很感激

最佳答案

有几点需要先澄清:

  • 您不必发送 Avro 架构。如果您使用 Kafka-Spark Integration ,它会为你做的。您需要编写一些配置,例如:

    props.put("value.deserializer", "io.confluent.kafka.serializers.KafkaAvroDeserializer");
    props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
    props.put("schema.registry.url", "http://localhost:8081 ");
  • 您可以将 DF 直接写入 Kafka,甚至可以从应用于您的数据帧的查询中写入。您可以查看 documentation 中显示的示例关于为流式查询创建 Kafka Sink。
  • 关于scala - 从数据帧制作 avro 模式 - spark - scala,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50858444/

    24 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com