gpt4 book ai didi

database - 在使用文件哈希数据库的 Kyoto Cabinet 数据库中,如何避免文件大小增加?

转载 作者:太空狗 更新时间:2023-10-30 01:55:43 24 4
gpt4 key购买 nike

我正在使用以下方式打开:

db.open("db.kch#tune_defrag=10000", DB.OWRITER | DB.OCREATE)

我正在放置和移除元素。执行结束时,数据库为“空”,count() 函数返回 0,因为我删除了所有元素。为什么我重复测试时文件大小总是变大?是否可以运行“垃圾收集器”之类的程序来清理已删除的寄存器?如果我执行相同的测试 100 次,我有一个 500 MB 大小的数据库,即使我只有 2 条记录。

我尝试输入“tune_defrag=10000”,但我认为它没有正常工作。

Obs.: 一个寄存器不到1K,我不明白为什么寄存器占用磁盘空间那么大。

感谢您的帮助

最佳答案

试试这个:

db.kch#dfunit=8

这意味着 KC 每检测到 8 个碎片就运行一次碎片整理,而 8 个实际上是 Mikio 推荐的。

此处列出了可用的选项,但它可能需要一些修饰。

http://fallabs.com/kyotocabinet/command.html

关于database - 在使用文件哈希数据库的 Kyoto Cabinet 数据库中,如何避免文件大小增加?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4320913/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com