gpt4 book ai didi

azure - DocumentDB 存储过程被阻止

转载 作者:行者123 更新时间:2023-12-01 00:53:09 24 4
gpt4 key购买 nike

我正在使用存储过程批量插入取自 documentation sample 的文档。 .

每分钟批量插入文档,采集性能级别为S2。在几天内插入大约 15000 个文档后,我的存储过程始终被阻止,并且出现以下异常:

Microsoft.Azure.Documents.ForbiddenException, message: {"Errors":["The script with id 'xxx' is blocked for execution because it has violated its allowed resource limit several times."]}

但是,完全不清楚我到底违反了什么 - 请求数量?文件总数?文档的大小?通过查看 DocumentDB 限制和性能级别描述,我无法弄清楚我遇到了什么限制以及我可以采取哪些措施来解决它。我在 Azure 门户中也没有收到任何警告或警报...

遇到这种情况我该怎么办?使用多个存储过程进行循环;) ?

最佳答案

服务器端脚本是根据 CPU、内存和 IO 进行资源管理的,以防止滥用并避免吵闹的邻居问题。

从文档 CRUD 操作返回的 bool 标志旨在表示资源何时耗尽以及脚本正常退出的时间。

在这种情况下,脚本正确地生成文档 CRUD bool 值...这似乎是 DocumentDB 方面的一个错误;该脚本永远不应该被列入黑名单。我会制造一些噪音并立即为您解决此问题。

更新 (5/5/15):我们相信我们已经找到了该错误;将在本周晚些时候尝试部署修复程序。同时,这里有两个解决方法(选择其中之一)... 1) 您可以在每次运行时重新创建存储过程。这使您可以完全避开黑名单。 2) 特别是对于批量导入文档,您可以将每次运行创建的文档数量限制为 S1 集合 <= 100 个文档,S3 集合 <= 1000 个文档。这应该会使脚本的资源消耗低于当前的黑名单阈值。

更新(2015 年 6 月 4 日):我们已部署修复程序;如果您遇到脚本被阻止的情况,请联系我:askcosmosdb {at} microsoft.com

关于azure - DocumentDB 存储过程被阻止,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29978925/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com