gpt4 book ai didi

apache-kafka - 卡夫卡消费者,很长的重新平衡

转载 作者:行者123 更新时间:2023-12-04 03:23:40 26 4
gpt4 key购买 nike

我们正在运行一个 3 代理 Kafka 0.10.0.1 集群。我们有一个 Java 应用程序,它产生许多从不同主题消费的消费者线程。对于每个主题,我们都指定了不同的消费者组。

很多时候我看到每当这个应用程序重新启动时,一个或多个 CG 需要超过 5 分钟才能接收分区分配。在那之前,该主题的消费者不会消费任何东西。如果我去 Kafka broker 并运行 consumer-groups.sh 并描述那个特定的 CG,我会看到它正在重新平衡。
在 server.log 我看到这样的行

准备稳定组 otp-sms-consumer
稳定组 otp-sms-consumer

并且这两个日志之间通常有大约 5 分钟或更长时间的间隔。
在消费者方面,当我打开跟踪级别日志时,在此暂停时间内实际上没有任何事件。几分钟后,许多事件开始了。
该主题中存储了时间关键数据,例如 otp-sms,我们不能容忍如此长的延迟。如此长时间的重新平衡可能是什么原因。

这是我们的消费者配置

auto.commit.interval.ms = 3000
auto.offset.reset = latest
bootstrap.servers = [x.x.x.x:9092, x.x.x.x:9092, x.x.x.x:9092]
check.crcs = true
client.id =
connections.max.idle.ms = 540000
enable.auto.commit = true
exclude.internal.topics = true
fetch.max.bytes = 52428800
fetch.max.wait.ms = 500
fetch.min.bytes = 1
group.id = otp-notifications-consumer
heartbeat.interval.ms = 3000
interceptor.classes = null
key.deserializer = class org.apache.kafka.common.serialization.StringDeserializer
max.partition.fetch.bytes = 1048576
max.poll.interval.ms = 300000
max.poll.records = 50
metadata.max.age.ms = 300000
metric.reporters = []
metrics.num.samples = 2
metrics.sample.window.ms = 30000
partition.assignment.strategy = [class org.apache.kafka.clients.consumer.RangeAssignor]
receive.buffer.bytes = 65536
reconnect.backoff.ms = 50
request.timeout.ms = 305000
retry.backoff.ms = 100
sasl.kerberos.kinit.cmd = /usr/bin/kinit
sasl.kerberos.min.time.before.relogin = 60000
sasl.kerberos.service.name = null
sasl.kerberos.ticket.renew.jitter = 0.05
sasl.kerberos.ticket.renew.window.factor = 0.8
sasl.mechanism = GSSAPI
security.protocol = SSL
send.buffer.bytes = 131072
session.timeout.ms = 300000
ssl.cipher.suites = null
ssl.enabled.protocols = [TLSv1.2, TLSv1.1, TLSv1]
ssl.endpoint.identification.algorithm = null
ssl.key.password = null
ssl.keymanager.algorithm = SunX509
ssl.keystore.location = null
ssl.keystore.password = null
ssl.keystore.type = JKS
ssl.protocol = TLS
ssl.provider = null
ssl.secure.random.implementation = null
ssl.trustmanager.algorithm = PKIX
ssl.truststore.location = /x/x/client.truststore.jks
ssl.truststore.password = [hidden]
ssl.truststore.type = JKS
value.deserializer = class org.apache.kafka.common.serialization.StringDeserializer

请帮忙。

最佳答案

我怀疑你的集群版本至少是 0.10.1.0,正如我看到的 max.poll.interval.ms在此 version 中引入的消费者配置中.

Kafka 0.10.1.0 集成 KIP-62这引入了设置为 max.poll.interval.ms 的重新平衡超时其默认值为 5 分钟。

我想如果您不想在重新平衡期间等待超时到期,您的消费者需要通过调用 close() 干净地离开消费者组。方法。

关于apache-kafka - 卡夫卡消费者,很长的重新平衡,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51322234/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com