gpt4 book ai didi

azure - 克服 CosmosDB 20GB 逻辑分区大小

转载 作者:行者123 更新时间:2023-12-02 06:24:43 25 4
gpt4 key购买 nike

当前在 CosmosDB 中存储来自多个客户(公司)的遥测数据。由于某些安全合规性,我们至少必须遵守客户数据的“逻辑”分区。因此,很自然地,客户“corporationId”(一个 guid)对于我们的分区键来说最有意义。在我们的应用程序代码中,每次执行查询时,我们都必须始终包含分区键,这可确保我们不会意外地查询客户之间的数据(并提高查询性能)。

CosmosDB 目前的分区大小限制为 20GB。对于与我们合作的 99% 的企业来说,他们永远不会接近这个限制,因为我们计划在 6 个月后归档数据。某个特定公司产生的数据比其他所有公司多得多,我们估计仅 60 天后就会达到这一限制。

我的问题

  1. 在达到 20GB 逻辑分区后,cosmosdb 会停止插入数据还是将其分离到第二个分区?我可以接受轻微的性能影响。
  2. 当然,我们可以使用/id 作为分区键,或者其他独特的东西,但这会破坏我们按客户进行的逻辑分区...还有其他人想出一种按 customerId 和其他字段组合进行分区的巧妙方法吗?其他建议

需要澄清的是,这是一个 .NET Core 应用程序,我们使用的是通过 SQL api 的 .NET Core CosmosDB SDK

最佳答案

1 的答案是,您将开始遇到状态代码 403、子状态 1014 的故障,如下所述:https://learn.microsoft.com/azure/cosmos-db/sql/troubleshoot-forbidden#partition-key-exceeding-storage

对于 2,评论已经提到了潜在的替代方案,例如分层分区键。目前无法提高限制。

关于azure - 克服 CosmosDB 20GB 逻辑分区大小,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/69918081/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com