gpt4 book ai didi

machine-learning - Word2Vec 和向量起源

转载 作者:行者123 更新时间:2023-11-30 08:54:55 24 4
gpt4 key购买 nike

我阅读了 Mikolov 等人关于 Word2Vec 的两篇论文(参见 herehere )。

我了解词向量的概念以及它们如何表示含义。但是,我不明白训练神经网络时最终的词向量来自哪里。输入是单词的 one-hot 编码,它尝试预测另一个单词的 one-hot 编码。那么如何得到最终的n维词向量呢?

最佳答案

经过几周的搜索,我找到了答案。这对于任何有兴趣了解 Word2Vec(以及一般的词嵌入)而不只是使用它的人来说都是有用的。

训练神经网络时,输入是一个 one-hot 向量,输出可以是 one-hot 向量的串联(或平均值),这就是你的上下文。中间是隐藏层。隐藏层有 d 个单元。所以hidden的输入是|V| x d 矩阵。该矩阵中的每一行都是与 one-hot 向量中的非零单元相对应的词嵌入

例如,如果 one-hot 向量中编码的单词是 [0, 0, 1, 0],它将被转置输入到神经网络中。请注意,只有一个单元非零,因此只有该输入单元会触发所有隐藏单元。因此,矩阵中的第三行是我们唯一关心的行,因此您的词嵌入是矩阵中的一行。

我希望对任何感兴趣的人有所帮助(也许我是唯一的一个?)

关于machine-learning - Word2Vec 和向量起源,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35189656/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com