gpt4 book ai didi

apache-spark - 如何在 Spark Kafka 直接流中手动提交偏移量?

转载 作者:行者123 更新时间:2023-12-05 01:17:38 25 4
gpt4 key购买 nike

我环顾四周,但没有找到满意的答案。也许我错过了一些东西。请帮忙。

我们有一个使用 Kafka 主题的 Spark 流应用程序,它需要在推进 Kafka 偏移量之前确保端到端处理,例如更新数据库。这很像在流系统中构建事务支持,并保证每条消息都被处理(转换),更重要的是,输出。

我已阅读有关 Kafka DirectStreams 的信息。它说为了在 DirectStreaming 模式下进行稳健的故障恢复,应该启用 Spark 检查点,即 stores the offsets along with the checkpoints .但是偏移管理是在内部完成的(设置 Kafka 配置参数,如 ["auto.offset.reset", "auto.commit.enable", "auto.offset.interval.ms"])。它没有说明我们如何(或是否)可以自定义提交偏移量(例如,一旦我们加载了数据库)。换句话说,我们可以设置"auto.commit.enable"吗?错误并自己管理偏移量(与数据库连接不同)?

非常感谢任何指导/帮助。

最佳答案

下面的文章可能是理解该方法的良好开端。

spark-kafka-achieving-zero-data-loss

此外,

文章建议直接使用zookeeper客户端,也可以用KafkaSimpleConsumer之类的东西代替。使用 Zookeper/KafkaSimpleConsumer 的好处是监控工具依赖于 Zookeper 保存的偏移量。此外,信息也可以保存在 HDFS 或任何其他可靠的服务上。

关于apache-spark - 如何在 Spark Kafka 直接流中手动提交偏移量?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38635381/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com