gpt4 book ai didi

azure - Cosmos 写入在批量执行时返回 429 错误

转载 作者:行者123 更新时间:2023-12-02 22:58:27 25 4
gpt4 key购买 nike

我们有一个利用微服务方法的解决方案。我们的一个微服务负责将数据推送到 Cosmos。我们的 Cosmos 数据库使用无服务器配置,限制为 5,000 RU/s。

我们插入到 Cosmos 中的数据如下所示。有 10 列,我们正在推送包含 5,807 行该数据的批处理。

<表类=“s-表”><标题>IDCompKey主要 ID辅助 ID类型日期时间项目音量价格费用 <正文>1蔬菜购买csd2354csddfg564dsfg55购买21/08/30韭菜100.755.002蔬菜购买sdf15s1dfdsdf31sdf654v购买21/08/30 Jade 米50.483.00

我们正在从多个来源检索数据,对其进行标准化,并将数据作为一次批量执行发送到 Cosmos。检索过程每小时发生一次。我们知道,我们每小时用已检索的数据对 Cosmos 数据库进行一次峰值处理,然后停止发送数据,直到下一个检索周期。那么,如果这个高峰是问题所在,那么对于这种情况有哪些补救措施呢?

任何人都可以阐明我们应该/需要做什么来克服这个问题吗?也许我们在创建 Cosmos 数据库时缺少一个设置,或者这可能与分区有关?

最佳答案

您可以通过查看 Azure 门户中发布的指标来确定这些事情。该文档是一个很好的起点,Monitor and debug with insights in Azure Cosmos DB .

我特别会查看标题为确定分区键范围的吞吐量消耗的部分

如果您不处理热分区键,您可能需要查看限制写入的选项。这可能包括修改批量大小并将写入操作置于带有一秒计时器的 while..loop 上,直到消耗的 RU/s 等于 5000 RU/s。您还可以考虑进行基于队列的负载均衡,并将写入内容放在 Cosmos 前面的队列上,然后将它们流式传输。

关于azure - Cosmos 写入在批量执行时返回 429 错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/68988633/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com