gpt4 book ai didi

apache-kafka - Flink 偏移量在手动重置 kafka 偏移量时进入不一致状态

转载 作者:行者123 更新时间:2023-12-04 13:26:42 25 4
gpt4 key购买 nike

我们有一个 flink 流应用程序,它从 kafka 读取 msg。
由于某种原因,我们不得不从 kafka reset 命令将 kafka 偏移重置为最新,因为有大量堆积。我们希望 flink 应用程序跳过所有这些消息,并从重置后出现的新消息开始。
问题是因为 flink 在内部管理它的偏移量,它不知道这个重置,它现在只从后向读取 msg(重置前的偏移点),现在也不能提交偏移量。因此,每次重新启动 flink 应用程序时,它都会再次从同一点读取。所以我们在每次重启时都有重复的 msg。
我知道我们不应该在 flink kafka 应用程序中手动重置偏移量。但是我们如何从中恢复过来。
我曾尝试将 auto.offset.config 设置为最新,但它仍然会再次读取这些消息。

最佳答案

只有当 Flink 从故障中恢复或从保存点或检查点手动重启时,它才会使用记录在检查点或保存点中的偏移量。
否则,Flink Kafka 消费者将开始从消费者组在 Kafka 代理中提交的偏移量中读取,或者从您在代码中明确指定的偏移量中读取,即,

myConsumer.setStartFromEarliest();     // start from the earliest record possible
myConsumer.setStartFromLatest(); // start from the latest record
myConsumer.setStartFromTimestamp(...); // start from specified epoch timestamp (msecs)
myConsumer.setStartFromGroupOffsets(); // the default behaviour
我不确定如何将这些事实与您报告的内容相协调。

关于apache-kafka - Flink 偏移量在手动重置 kafka 偏移量时进入不一致状态,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/68043442/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com