gpt4 book ai didi

performance - Kafka : is it better to have a lot of small messages or fewer, 但更大的?

转载 作者:行者123 更新时间:2023-12-05 03:51:36 25 4
gpt4 key购买 nike

有一个微服务,它从外部接收一批消息并将它们推送到kafka。每条消息都是单独发送的,因此对于每批我有大约 1000 条消息,每条 100 字节。消息似乎在内部占用了更多空间,因为磁盘上可用空间的下降速度比我预期的要快得多。

我正在考虑更改生产者逻辑,它将所有批处理放入一条消息中的方式(然后消费者将自行拆分它们)。但是我没有找到任何关于许多小消息的空间或性能问题的信息,也没有找到任何关于大小和数量之间平衡的准则。而且我对 Kafka 的了解还不足以得出我自己的结论。

谢谢。

最佳答案

生产者 将自行批处理发往同一分区的消息,以避免不必要的调用。

enter image description here

生产者之所以能做到这一点,要归功于它的后台线程。在图中,您可以看到它如何在将 3 条消息发送到每个分区之前对其进行批处理。

如果您还在生产者端设置了压缩,它也会在将消息发送到金属丝。此属性也可以在代理端设置(因此消息由生产者未压缩发送,并由代理压缩)。

这取决于您的网络容量来决定您是喜欢较慢的生产者(因为压缩会减慢它)还是在线路上的更大负载。请注意,为大文件设置较大的压缩级别可能会对您的整体性能产生很大的影响。

无论如何,我相信大/小消息问题对消费者方面的伤害更大;向 Kafka 发送消息既简单又快速(默认行为是异步的,因此 生产者 不会太忙)。但是在 consumer 端,您必须查看处理消息的方式:


  1. 一名消费者 worker

在这里,您将消费与处理结合起来。这是最简单的方法:消费者设置自己的线程,读取 kafka 消息并处理它。然后继续循环。

  1. 一个消费者 - 许多 worker

在这里,您将消费和处理分离。 在大多数情况下,从 kafka 读取消息的速度会比处理消息所需的时间快这只是物理学。在这种方法中,一个消费者提供许多分担处理负载的独立工作线程。


有关此的更多信息 here ,就在 Constructors 区域上方。

我为什么要解释这个?好吧,如果您的消息太大,并且您选择了第一个选项,您的消费者可能不会在超时间隔内调用 poll(),因此它将不断重新平衡。如果您的消息很大(并且需要一些时间来处理),最好选择实现第二个选项,因为消费者将继续自己的方式,调用 poll() 而不会陷入重新平衡。

如果消息太大太多,您可能不得不开始考虑可以将消息缓冲到内存中的不同结构。例如,Poolsdequesqueues 是实现此目的的不同选项。

您还可以增加轮询超时间隔。这可能会隐藏你关于死消费者的信息,所以我真的不推荐它。


所以我的回答是:这基本上取决于:您的网络容量、所需的延迟时间和处理能力。如果您能够像处理小消息一样快地处理大消息,那么我就不会在意了。

也许如果您需要过滤和重新处理较旧的消息,我建议您对主题进行分区并发送较小的消息,但这只是一个用例。

关于performance - Kafka : is it better to have a lot of small messages or fewer, 但更大的?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62778495/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com