gpt4 book ai didi

performance - 非常快的文档相似度

转载 作者:行者123 更新时间:2023-12-04 03:55:25 24 4
gpt4 key购买 nike

我正在尝试尽快确定单个文档与大量文档(n ~= 100 万)中的每一个文档之间的文档相似性。更具体地说,我比较的文件是电子邮件;它们被分组(即,有文件夹或标签),我想确定哪个组最适合新电子邮件。快速的性能至关重要。

我的先验假设是术语向量之间的余弦相似度适用于这个应用程序;请评论这是否是一个很好的使用方法!

我已经考虑了以下提高性能的可能性:

  • 预归一化所有术语向量
  • 为每组(n ~= 10,000)而不是每封电子邮件(n ~= 1,000,000)计算一个词向量;这对于我的应用程序来说可能是可以接受的,但是如果您能想到不这样做的理由,请告诉我!

  • 我有几个问题:
  • 如果一封新电子邮件有一个以前从未在任何电子邮件中出现过的新术语,这是否意味着我需要重新计算所有术语向量?这似乎很贵。
  • 有没有一些聪明的方法来只考虑可能接近查询文档的向量?
  • 有什么方法可以让我对所有这些向量使用的内存量更加节俭吗?

  • 谢谢!

    最佳答案

    使用 Bayesian filtering .提供的链接指的是垃圾邮件过滤,但您可以很容易地将该算法应用于多个类别/标签。

    好东西很多SO question about Bayesian filtering , 也。

    关于performance - 非常快的文档相似度,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/2829255/

    24 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com