gpt4 book ai didi

Spring Data Redis批量保存使用存储库太慢,如何管道存储库保存

转载 作者:行者123 更新时间:2023-12-03 06:36:07 25 4
gpt4 key购买 nike

我们使用 Spring Data Redis Repositories (repository.save(List)) 在 Redis 中保存 250k 个对象。
它太慢了。大约需要 30 分钟。

我正在使用带有管道的 redisTemplate 来保存 250k 对象,这些对象具有与存储库相同的 redis 数据结构(例如使用 hmset 存储对象,sadd 来存储 key 。这样我们就可以使用存储库检索对象)保存,设法在 150 秒内保存 250k。

我们如何使用存储库保存对象和管道?这样我就不需要手动执行 hmset、sadd 之类的操作(这是存储库在 redis 中保存数据时内部发生的事情)

最佳答案

几天来一直遇到同样的问题,以为我只是分享我为维持生计所做的事情。

所以我放弃了使用@Repository通过 Redis Hash 将我的 DTO 保存在 Redis 上。

我有点被迫使用 hSet 之类的命令管道内。

到目前为止,您无法使用 @Repository 进行批量保存 + 管道。接口(interface)..

此外,Lettuce 在 Redis 命令之后的每次日志记录也会影响开发环境中的写入操作。

尝试关闭io.lettuce.core DEBUG记录并查看操作是否加快。

如果需要,我可以分享我的情况的代码片段。

关于Spring Data Redis批量保存使用存储库太慢,如何管道存储库保存,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50983523/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com