gpt4 book ai didi

redis - 存储非常大的数据列表

转载 作者:IT王子 更新时间:2023-10-29 06:14:03 26 4
gpt4 key购买 nike

我需要存储一个非常大的列表(大小高达 80MB),我可以将数据分 block 并将其存储在多个键上 - A_1、A_2 ... 等等。该解决方案看起来远非优雅 - 并且还伴随着必须维护查找字典 {'A': [1, 2, ....]} 的开销,以便在回读时了解特定文档存在多少 block .

在 Redis 或 Aerospike 中有没有其他方法可以做同样的事情?我并不是一心想使用 Redis,任何其他存储(关系存储除外)都可以。

最佳答案

根据您的输入,redis 列表将适合。您可以对其进行简单的基准测试。通过列表,我假设您将访问某个范围内的数据。

使用 lpush 推送所有数据,http://redis.io/commands/lpush

使用 lrange 检索数据 block ,http://redis.io/commands/lrange

给你一个想法,粗略地说,你的名单规模是 10,000。放入 80MB 数据所需的时间大约需要 1 秒。检索大约 500 个数据 block (在一个范围内)的时间大约需要 200 毫秒。这可能会因您的输入、RTT 等而异。

关于redis - 存储非常大的数据列表,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40277426/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com