gpt4 book ai didi

jdbc - Kafka Connect JDBC 接收器连接器

转载 作者:行者123 更新时间:2023-12-05 04:02:37 27 4
gpt4 key购买 nike

我正在尝试将主题(json 数据)中的数据写入 MySql 数据库。我想我想要一个 JDBC 接收器连接器。

如何配置连接器以将主题中的 json 数据映射到如何将数据插入数据库。

我能找到的唯一文档是这个。

"The sink connector requires knowledge of schemas, so you should use a suitable converter e.g. the Avro converter that comes with Schema Registry, or the JSON converter with schemas enabled. Kafka record keys if present can be primitive types or a Connect struct, and the record value must be a Connect struct. Fields being selected from Connect structs must be of primitive types. If the data in the topic is not of a compatible format, implementing a custom Converter may be necessary."

但是你如何配置呢?有例子吗?

最佳答案

I assume that means you need to use Confluent Schema Registry?

对于“更好的”架构支持,那么是的。但不,这不是必需的。

您可以将 JsonConverter 与 schemas.enable=true 一起使用

不过,您的 JSON 消息需要看起来像这样,

{
"schema" : {
... data that describes the payload
},
"payload": {
... your actual data
}
}

关于这个格式的引用,可以看this blog

您可以使用 Kafka Streams or KSQL更轻松地将“无模式”JSON 转换为模式化的 Avro 负载

关于jdbc - Kafka Connect JDBC 接收器连接器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54333581/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com