gpt4 book ai didi

python - 为什么这些查询之间的 dynamodb 性能不同?

转载 作者:太空宇宙 更新时间:2023-11-04 03:09:18 25 4
gpt4 key购买 nike

我有 3 个表:

table 1
=======
Size 458.54 MB
Count 2,887,152

table 2
=======
Size 161.05 MB
Count 1,060,444

table 3
=======
Size 4.10 GB
Count 2,629,162

我已将所有 3 个表配置为 500 个读取容量单位 (RCU),并使用 python2.7 和简单的 boto3.scan() 对 20 页进行分页。

为什么它们之间的持续时间如此不同,同时消耗完全相同的 RCU?

table 1
=======
seconds: 65.7738468647
row_count: 131925
scanned_count: 131925
consumed_capacity: 2570.0

table 2
=======
seconds: 97.8232300282
row_count: 138092
scanned_count: 138092
consumed_capacity: 2570.0

table 3
=======
seconds: 37.8384461403
row_count: 13416
scanned_count: 13416
consumed_capacity: 2571.0

最佳答案

区别在于 boto3 响应解析器。更大、更复杂的对象将需要更长的时间来解析。我想如果您查看每个表中的对象,您会发现更复杂的对象与查询速度之间存在相关性。传输时间也会对事情产生重大影响。

关于python - 为什么这些查询之间的 dynamodb 性能不同?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38590218/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com