gpt4 book ai didi

amazon-web-services - AWS Kinesis 吞吐量低

转载 作者:行者123 更新时间:2023-12-05 05:25:25 30 4
gpt4 key购买 nike

我使用 python 的 boto.kinesis将记录写入 AWS Kinesis 的模块.达到的最大吞吐量约为 40 次放置/秒。然而,根据Kinesis FAQ :

Each shard can support up to 1000 PUT records per second.

因此,我目前的方法仅达到 4% 理论上可能的结果,这似乎低得离谱。

有没有人知道如何提高吞吐量?

设置:Kinesis Stream 是一个具有一个分片的实例。生产者位于与 Kinesis Stream 相同区域的专用 AWS EC2 实例 (t3.medium) 上。它创建大约 20 个字符长度的字符串,并通过 boto.kinesis.Connection.put_record("my_stream", my_message) 将它们发送到 Kinesis Stream。

简化代码:

from boto import kinesis
import time

connection = kinesis.connect_to_region(REGION)
stream = connection.create_stream("my_stream", shard_count=1)
time.sleep(60) # wait a minute until stream is created

for i in range(NUM_MESSAGES):
my_message = "This is message %d" % i
connection.put_record(my_message, "my_stream", "partition_key")

最佳答案

http://docs.aws.amazon.com/kinesis/latest/dev/service-sizes-and-limits.html

限制是记录/秒您应该使用 putRecords 来提高写入吞吐量。你这样做的方式是在同一个调用中放置多个记录。所以你继续追加,最后你做 put 记录。

还有
看看:https://github.com/awslabs/kinesis-poster-worker

关于amazon-web-services - AWS Kinesis 吞吐量低,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31008274/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com