gpt4 book ai didi

python - 如何提高doc2vec模型中两个文档(句子)的余弦相似度?

转载 作者:太空宇宙 更新时间:2023-11-03 15:06:50 26 4
gpt4 key购买 nike

我正在通过 doc2vec 模型使用 gensim 库在 Python 中构建 NLP 聊天应用程序。我有硬编码的文档并给出了一组训练示例,我通过抛出用户问题来测试模型,然后第一步找到最相似的文档。在本例中,我的测试问题是训练示例中文档的精确副本。

import gensim
from gensim import models
sentence = models.doc2vec.LabeledSentence(words=[u'sampling',u'what',u'is',u'tell',u'me',u'about'],tags=["SENT_0"])
sentence1 = models.doc2vec.LabeledSentence(words=[u'eligibility',u'what',u'is',u'my',u'limit',u'how',u'much',u'can',u'I',u'claim'],tags=["SENT_1"])
sentence2 = models.doc2vec.LabeledSentence(words=[u'eligibility',u'I',u'am',u'retiring',u'how',u'much',u'can',u'claim',u'have', u'resigned'],tags=["SENT_2"])
sentence3 = models.doc2vec.LabeledSentence(words=[u'what',u'is',u'my',u'eligibility',u'post',u'my',u'promotion'],tags=["SENT_3"])
sentence4 = models.doc2vec.LabeledSentence(words=[u'what',u'is', u'my',u'eligibility' u'post',u'my',u'promotion'], tags=["SENT_4"])
sentences = [sentence, sentence1, sentence2, sentence3, sentence4]
class LabeledLineSentence(object):
def __init__(self, filename):
self.filename = filename
def __iter__(self):
for uid, line in enumerate(open(filename)):
yield LabeledSentence(words=line.split(), labels=['SENT_%s' % uid])
model = models.Doc2Vec(alpha=0.03, min_alpha=.025, min_count=2)
model.build_vocab(sentences)
for epoch in range(30):
model.train(sentences, total_examples=model.corpus_count, epochs = model.iter)
model.alpha -= 0.002 # decrease the learning rate`
model.min_alpha = model.alpha # fix the learning rate, no decay
model.save("my_model.doc2vec")
model_loaded = models.Doc2Vec.load('my_model.doc2vec')
print (model_loaded.docvecs.most_similar(["SENT_4"]))

结果:

[('SENT_1', 0.043695494532585144), ('SENT_2', 0.0017897281795740128), ('SENT_0', -0.018954679369926453), ('SENT_3', -0.08253869414329529)]

SENT_4SENT_3 的相似度仅为 -0.08253869414329529,因为它们完全相同,因此它应该为 1。我应该如何提高这个准确性?是否有特定的培训文档方式,我错过了什么?

最佳答案

Word2Vec/Doc2Vec 不适用于玩具大小的示例(例如少量文本、短文本和少量总单词)。许多理想的属性只有通过数百万个单词或数万个文档的训练集才能可靠地实现。

特别是,只有 5 个示例,只有十几个或两个单词,但建模向量有 100 维,训练不会被迫做使单词向量/文档向量有用的主要事情:压缩表示成密集嵌入,其中相似的项目需要在向量空间中逐渐相互靠近,因为没有办法在一个巨大的查找表中保留所有原始变化。由于维度比语料库变体更多,您的相同标记 SENT_3SENT_4 可以采用截然不同的文档向量,并且模型仍然足够大,可以很好地完成其训练任务(本质上是“过度拟合”),而没有强制具有相似向量的相似文本的所需最终状态。

有时,您可以通过更多的训练迭代和更小的模型(就向量大小而言)从小数据集中挤出更多的意义,但实际上:这些向量需要大的、多样化的数据集变得有意义。

这是主要问题。示例代码中的其他一些低效或错误:

  • 您的代码不使用类LabeledLineSentence,因此无需在此处包含它 - 它是不相关的样板文件。 (此外,TaggedDocument 是最近 gensim 版本中 words+tags 文档类的首选名称,而不是 LabeledSentence.)

  • 您对 alphamin_alpha 的自定义管理不太可能做任何有用的事情。这些最好保留默认值,除非您已经有一些东西可以工作,很好地理解算法,然后想要尝试微妙的优化。

  • train() 将执行自己的迭代,因此您不需要在外循环中多次调用它。 (编写的这段代码在其第一个循环中以 alpha 值逐渐从 0.03 下降到 0.025 进行 5 次 model.iter 迭代,然后以 0.028 的固定 alpha 进行 5 次迭代,然后在 0.026 处再进行 5 次,然后以 alpha 递减的方式再进行 27 组 5 次迭代,在第 30 次循环时以固定 alpha -0.028 结束。这是一个无意义的结束值 – 学习率永远不应该为负 – 在无意义的末尾进展。即使使用大数据集,这 150 次迭代(大约一半发生在负 alpha 值上)也可能会产生奇怪的结果。)

关于python - 如何提高doc2vec模型中两个文档(句子)的余弦相似度?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44581914/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com