gpt4 book ai didi

python - marisa trie 后缀压缩?

转载 作者:太空狗 更新时间:2023-10-29 18:33:55 30 4
gpt4 key购买 nike

我正在使用 this marisa trie 的自定义 Cython 包装器作为键值 multimap 的库。

我的 trie 条目看起来像 key 0xff data1 0xff data2key 映射到元组 (data1, data2)data1 是可变长度的字符串,但 data2 始终是 4 字节无符号整数。 0xff 是一个分隔符字节。

我知道从理论上讲,trie 并不是最佳的数据结构,但各种实际考虑使它成为最佳选择。

在这个用例中,我有大约 10-20 百万个键,每个键平均有 10 个数据点。 data2 对于许多条目来说是多余的(在某些情况下,对于给定键的所有数据点,data2 始终相同),所以我想到了采用最频繁的data2 条目并向每个键添加一个 ("", base_data2) 数据点。

据我所知,由于 MARISA trie 没有后缀压缩,并且对于给定的键,每个 data1 都是唯一的,我假设这将为每个使用冗余键的数据元组节省 4 个字节(加上为每个键添加一个 4 字节“值”)。重建 trie 后,我检查了冗余数据是否不再存储。我预计序列化和内存大小都会大幅减少,但实际上磁盘上的 trie 从 566MB 减少到 557MB(加载的 trie 的 RAM 使用量也有类似的减少)。

由此我得出结论,我对没有后缀压缩的看法一定是错误的。我现在将带有冗余 data2 编号的条目存储为 key 0xff data1 0xff,因此为了测试这个理论,我删除了尾随 0xff 并进行了调整使用 trie 来应对的代码。新的 trie 从 557MB 减少到 535MB。

因此,删除单个冗余尾随字节比删除 相同数量 的 4 字节序列有 2 倍的改进,所以后缀压缩理论要么是完全错误的,要么是在一些非常复杂的实现中实现的方式。

我剩下的理论是,在 trie 的较高位置添加 ("", base_data2) 条目会以某种可怕的方式取消压缩,但它应该只是添加 4当我从 trie 的较低位置删除更多字节时,更多字节。

我对修复并不乐观,但我非常想知道为什么我会看到这种行为!感谢您的关注。

最佳答案

正如我所怀疑的那样,这是由填充引起的。

lib/marisa/grimoire/vector/vector.h中,有如下函数:

void write_(Writer &writer) const {
writer.write((UInt64)total_size());
writer.write(const_objs_, size_);
writer.seek((8 - (total_size() % 8)) % 8);
}

重点是:writer.seek((8 - (total_size() % 8)) % 8);。写入每个 block 后,写入器填充到下一个 8 字节边界。

这解释了您所看到的行为,因为最初缩短 key 所删除的部分数据被替换为填充。

当您删除额外的字节时,它会使 key 大小低于下一个边界限制,从而导致大小发生重大变化。

实际上,这意味着,由于填充代码位于库的序列化部分,您可能获得了预期的内存节省,但这并没有转化为磁盘节省 。监控程序 RAM 使用情况应该可以确认这一点。

如果您关心磁盘大小,那么您也可以简单地压缩序列化数据,因为 MARISA 似乎没有应用任何压缩。

关于python - marisa trie 后缀压缩?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44895094/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com