gpt4 book ai didi

azure-cosmosdb - 基于分区键的记录数 - 是否有最大/最小

转载 作者:行者123 更新时间:2023-12-04 13:28:17 25 4
gpt4 key购买 nike

我们有大约 2000 万个文档需要插入到我们的 Cosmos DB 中。我们这些文档的分区 ID 基于 Group_ID .最多可以有 300 个唯一的 Person_ID在此下Group_ID .
这转化为如下所示的内容。
2000 万人。每一个都有独一无二的PERSON_IDGROUP_ID 分区-- 范围从 50 到 300
如果我考虑 300,那么大约我们得到 66K 分区。

  • GROUP_ID 搜索将是我们最常用的 ID。

  • 问题:有 66k 个分区可以吗?会不会有性能影响?
    此外,我们的 Cosmos DB 的大小将在 3 年内从 2000 万增长到 1 亿(即 330 万个分区)

    最佳答案

    Cosmos DB 中的分区键定义了一个逻辑分区,它不同于物理分区。阅读 partitioning docs 很有用了解这种差异。一个相关的亮点:

    There is no limit to the number of logical partitions in your container
    事实上,建议尽可能多的分区,假设它们均匀分布吞吐量并适合您的查询模式。鉴于逻辑分区大小可以达到 20 GB,物理分区大小可以达到 50 GB,即使有大量文档跨多个分区键,您也可能不会拥有多个物理分区。
    性能方面,只要您的数据按分区键很好地分布,那么需要关注的更重要的事情就是您的查询。特别是,该设计应该最大限度地减少您执行跨分区查询所需的时间,并最大限度地增加您能够执行点读取的时间。

    关于azure-cosmosdb - 基于分区键的记录数 - 是否有最大/最小,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/66742808/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com