gpt4 book ai didi

mysql - 过滤数据库行

转载 作者:行者123 更新时间:2023-11-29 10:40:15 26 4
gpt4 key购买 nike

我想知道kafka平台是否适合以下工作。

我正在尝试摄取包含多个表的完整数据库。一旦被 Kafka 摄取,我想根据条件过滤表行。

我认为使用 Kafka 流可以轻松完成这项工作,但是被过滤器拒绝的消息会发生什么情况?

例如,如果基于日期,将来可能会满足条件,那么被拒绝的消息是否有可能再次过滤以最终通过过滤器并进一步处理?

在向 Kafka 提供数据之前过滤数据行是否更好?

谢谢。

最佳答案

您可能需要考虑使用数据库连接器,例如 Debezium 或 Confluence JDBC Source Connector,它们都基于 Kafka Connect

有关 MySQL 的 Debezium 连接器的更多信息,请参阅 http://debezium.io/docs/connectors/mysql

有关 Confluence JDBC 连接器的更多信息,请参阅 http://docs.confluent.io/current/connect/connect-jdbc/docs/source_connector.html

借助基于 Kafka Connect 的连接器,您可以使用 Kafka Connect 中的单消息转换 (SMT) 功能在发布到 Kafka 之前过滤数据行。

请参阅此处有关使用 Kafka Connect 进行行过滤的讨论 Kafka connect (Single message transform) row filtering

关于mysql - 过滤数据库行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45627900/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com