gpt4 book ai didi

algorithm - 用于查找倒排索引中乱序值数组的交集的良好数据结构?

转载 作者:塔克拉玛干 更新时间:2023-11-03 05:41:56 26 4
gpt4 key购买 nike

我有一个倒排索引,其中每个标记映射到一个对列表 (document_id, score)。每个标记的值列表按分数降序排序,因此排名最高的文档排在最前面。

不幸的是,对于我的应用程序,无法保证所有 token 的按分数排序也将同时按 ID 排序,因为分数是根据 token 在文档中的上下文进行调整的。例如,如果我的“文档”是带有 (id, score) = (1, 105) 的字符串“wine-red iPhone”和带有 (id, score) 的“red wine” = (2, 100),"red"和 "wine"在 "red wine"中的重要性相等,但 "wine"< "red"< "iPhone"在 "wine-red iPhone"中的重要性相同,所以可能会调整分数,使倒排索引看起来像

"red"    -> [(2, 100), (1, 95)]
"wine" -> [(1, 105), (2, 100)]
"iPhone" -> [(1, 115)]

我需要在 id 上找到这些列表的交集,以返回文档 id 的排名列表,其中都包含一些标记集(标准搜索问题)。在上面的例子中,假设还有一个文档“white wine”,id=3,score=50,那么倒排索引现在是这样的:

"red"    -> [(2, 100), (1, 95)]
"wine" -> [(1, 105), (2, 100), (3, 50)]
"white" -> [(3, 50)]
"iPhone" -> [(1, 115)]

然后,如果搜索标记是 {"red", "wine"},问题本质上是提取两个标记的值,在本例中是 [(2, 100), (1, 95)][(1, 105), (2, 100), (3, 50)] 并将它们与文档 ID 相交,因此结果类似于 [(2, f(100, 100)), (1, f(95, 105))]f 是一些平均函数,没关系。

它需要速度快,并且消耗尽可能少的内存(但是磁盘空间不是问题)。在某些情况下,它将存储数百万个映射到数千万个唯一文档 ID 的唯一标记。

到目前为止,为了满足我的限制,我最终将数据存储在一个修改为键值存储的 trie 中(其中每个 (id, score) 对是一个值), 本质上是为了内存中的压缩。 inverted_index.get(token)遍历数组,返回一个id -> score的hash map,get也可以取这样的hash map 作为参数,以便在遍历数组并组装下一个 map 时完成交集。围绕将列表划分为主列表和后备列表、序列化/反序列化等等,还有一些其他的小优化。它们都是无法解决更大问题的创可贴,我并没有真正使用正确的数据结构和算法来解决问题。目前,我最大的用例有大约 20m 个唯一文档 ID,完全加载到内存中需要大约 400mb。

目前,这是我的应用程序中性能的最大瓶颈,尤其是当一组标记中包含一些值非常多的标记时。我愿意使用现有的库,从头开始编写一些东西,对当前方法进行优化等。我的主要堆栈是用 python 编写的,但这部分是用 C++ 和 Cython 编写的。我对任何语言都持开放态度,如果你知道现有的源代码,只要我能围绕它编写 Python 包装器。

感谢您的帮助!

最佳答案

通常,在存储倒排索引时,标记的文档列表存储在按文档 ID 排序的简单数组中,并且以某种方式压缩该数组以确保文档 ID 占用尽可能少的空间。然后可以通过解码、扫描和合并排序的数组来快速完成交集,其中大部分工作发生在 CPU 缓存中。例如。查看此库 https://github.com/lemire/JavaFastPFOR - 我建议从这里开始探索并阅读那里引用的相关论文。

关于algorithm - 用于查找倒排索引中乱序值数组的交集的良好数据结构?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47564042/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com