gpt4 book ai didi

nlp - 使用 spacy 查找两个文档共享的标记百分比

转载 作者:行者123 更新时间:2023-12-04 15:43:17 30 4
gpt4 key购买 nike

对于 nltk 它会是这样的:

def symm_similarity(textA,textB):
textA = set(word_tokenize(textA))
textB = set(word_tokenize(textB))
intersection = len(textA.intersection(textB))
difference = len(textA.symmetric_difference(textB))
return intersection/float(intersection+difference)

由于 spacy 更快,我尝试在 spacy 中执行此操作,但 token 对象似乎没有为此提供快速解决方案。有什么想法吗?

谢谢大家。

最佳答案

您的函数获取共享词类型的百分比,而不是标记。你正在使用这组词,但对它们的计数不敏感。

如果你想要标记的计数,我希望下面的速度非常快,只要你加载了词汇文件(如果你安装了数据,默认情况下会加载):

from spacy.attrs import ORTH

def symm_similarity_types(nlp, textA,textB):
docA = nlp.make_doc(textA)
docB = nlp.make_doc(textB)
countsA = Counter(docA.count_by(ORTH))
countsB = Counter(docB.count_by(ORTH)
diff = sum(abs(val) for val in (countsA - countsB).values())
return diff / (len(docA) + len(docB))

如果您想计算与上面的代码完全相同的东西,这里是 spaCy 等价物。 Doc 对象允许您迭代 Token 对象。然后,您应该根据 token.orth 属性进行计数,该属性是字符串的整数 ID。我预计使用整数会比使用字符串集快一些:

def symm_similarity_types(nlp, textA,textB):
docA = set(w.orth for w in nlp(textA)
docB = set(w.orth for w in nlp(textB)
intersection = len(textA.intersection(textB))
difference = len(textA.symmetric_difference(textB))
return intersection/float(intersection+difference)

这应该比 NLTK 版本更有效一些,因为您使用的是整数集,而不是字符串。

如果您真的很关心效率,通常只在 Cython 中工作更方便,而不是试图猜测 Python 在做什么。这是基本循环:

# cython: infer_types=True
for token in doc.c[:doc.length]
orth = token.lex.orth

doc.c 是一个 TokenC*,因此您将迭代连续内存并取消引用单个指针(token.lex 是一个 const LexemeC*)

关于nlp - 使用 spacy 查找两个文档共享的标记百分比,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41470276/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com