gpt4 book ai didi

Azure 存储表传输速率超出 - 怎么办?

转载 作者:行者123 更新时间:2023-12-02 06:22:35 24 4
gpt4 key购买 nike

根据new scalability targets对于 Azure,表存储中的每个分区限制为 2000 个实体/秒。

通过并行性,我已经能够实现每秒高达 16000 个实体的批量插入。

例如,在我的 XtraLarge Web 角色(8 个 CPU、8 个内核)上,我在 64 个同时并行任务中插入 6400 个实体(这是 64 个单独的批量插入,每个插入 100 个)。

这怎么可能?每秒 2000 个实体是否只是分区预期的最低性能?

最佳答案

它们是可扩展性目标,而不是限制。正如您所指出的,这是最低预期性能,而不是最高性能。我想您会发现,在特定时间、特定网络和硬件上,其他 Azure 客户很少会争夺资源。另外,请注意实体的大小 - Azure 似乎对小型实体表现良好,目标将是最大实体 (1MB)。请注意——尽管意想不到的性能可能很有用,但不要计划它会出现。另外,请确保您针对失败(500 和 503)进行编码,无论您达到限制的频率如何,否则当存储服务表现不佳时,您的应用程序可能会开始失败。

关于Azure 存储表传输速率超出 - 怎么办?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15025906/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com