gpt4 book ai didi

google-cloud-bigtable - Cloud Bigtable 推荐的最小表大小

转载 作者:行者123 更新时间:2023-12-01 13:13:16 25 4
gpt4 key购买 nike

根据Cloud Bigtable performance docs我应该有一定的数据量来保证最高的吞吐量。

在“性能较慢的原因”下它说:

The workload isn't appropriate for Cloud Bigtable. If you test with a small amount (< 300 GB) of data

此限制适用于表的大小还是实例的总大小?

我有一张 100GB 的表和另一张 1TB 的表。我想知道是否应该合并它们。

最佳答案

该限制似乎适用于实例的总大小,但您可能不必担心太多,除非您发现任何性能问题。

如果这两者都在同一个实例上,则每个表的数据将分布在您在实例级别拥有的节点中。在Bigtable whitepaper它说“每个表由一组 tablets 组成,每个 tablet 包含与行范围相关的所有数据。最初,每个表只包含一个 tablet。随着表的增长,它会自动分成多个 tablets,每个大约 100默认大小为 -200 MB。”

一小部分数据的问题在于您可能会过于频繁地访问相同的行。如果您发现一些性能问题,您可以使用 Key Visualizer在您的数据库中查找热点。

关于google-cloud-bigtable - Cloud Bigtable 推荐的最小表大小,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58631185/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com