gpt4 book ai didi

python - Word2Vec 和 Gensim 参数等价

转载 作者:太空宇宙 更新时间:2023-11-04 01:06:53 32 4
gpt4 key购买 nike

Gensim 是 Word2Vec 的优化 python 端口(参见 http://radimrehurek.com/2013/09/deep-learning-with-word2vec-and-gensim/)

我目前正在使用这些载体:http://clic.cimec.unitn.it/composes/semantic-vectors.html

我将使用 gensim 重新运行模型训练,因为他们的模型中有一些嘈杂的标记。所以我想找出 gensim

word2vec 的一些等效参数是什么

他们从word2vec中使用的参数是:

  • 2 字上下文窗口,PMI 加权,无压缩,30 万维

当我训练 Word2Vec 模型时,gensim 等价是多少?

是吗:

>>> model = Word2Vec(sentences, size=300000, window=2, min_count=5, workers=4)

gensim 中有 PMI 权重选项吗?

word2vec 中使用的默认 min_count 是多少?

word2vec 中还有另一组参数:

  • 5 字上下文窗口、10 个负样本、子采样、400 维。

gensim中有负样本参数吗?

gensim中二次采样的参数等价是什么?

最佳答案

  1. 您链接到的论文比较了多种方案的词嵌入,包括连续词袋 (CBOW)。 CBOW 是 Gensim 的“word2vec”模型中实现的模型之一。该论文还讨论了使用各种加权方案从奇异值分解获得的词嵌入,其中一些涉及 PMI。 SVD 和 word2vec 之间没有等价关系,但如果您想在 gensim 中进行 SVD,在自然语言处理中称为“LSA”或“潜在语义分析”。

  2. min_count参数默认设置为5,可见here .

  3. Negative Sampling 和 Hierarchical Softmax 是两种近似推理方法,用于估计离散空间上的概率分布(在普通 softmax 计算量太大时使用)。 Gensim 的 word2vec 实现了这两者。它默认使用分层 softmax,但您可以通过将超参数 negative 设置为大于零来使用负采样。这记录在 gensim 代码的注释中 here以及。

关于python - Word2Vec 和 Gensim 参数等价,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29939984/

32 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com