gpt4 book ai didi

java - Flink - 构建作业以最大化吞吐量

转载 作者:行者123 更新时间:2023-11-29 04:55:15 25 4
gpt4 key购买 nike

我有 4 种类型的 kafka 主题,每种类型有 65 个主题。目标是对数据进行一些简单的窗口聚合并将其写入数据库。

拓扑将类似于:

kafka -> 窗口 -> reduce -> 数据库写入

在这个组合中的某个地方,我想要/需要做一个联合 - 或者可能是几个(取决于每次组合的主题数量)。

主题中的数据流从 10K 到 >200K 消息/分钟不等。

我有一个四节点 flink 集群,每个节点有 30 个内核。我如何构建这些拓扑来分散负载?

最佳答案

我在撰写此答案时假设相同类型的 65 个主题中的每一个都包含相同类型的数据。

解决此问题的最简单方法是更改​​ Kafka 设置,使您有 4 个主题,每个主题有 65 个分区。然后程序中有 4 个数据源,具有高并行度 (65),并且自然地分布在集群中。

如果无法更改设置,我认为您可以做两件事:

  • 一种可能的解决方案是创建 FlinkKafkaConsumer 的修改版本,其中一个源可以使用多个主题(而不是只使用一个主题的多个分区)。有了这个改变,它的工作方式就好像你在使用许多分区,而不是许多主题。如果你想使用这个解决方案,我会 ping 邮件列表以获得一些支持。无论如何,这对 Flink 代码都是一个有值(value)的补充。

  • 您可以为每个源分配一个单独的资源组,这将为其分配一个专用插槽。你可以通过“env.addSource(new FlinkKafkaConsumer(...)).startNewResourceGroup();”来做到这一点。但在这里,观察结果是您尝试在具有 120 个内核(因此可能有 120 个任务槽)的集群上执行 260 个不同的源。您将需要增加槽的数量来容纳所有任务。

我认为第一个选项是更可取的选项。

关于java - Flink - 构建作业以最大化吞吐量,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34031842/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com