gpt4 book ai didi

python - Gensim 与向量最相似的词

转载 作者:行者123 更新时间:2023-12-04 08:32:01 25 4
gpt4 key购买 nike

我正在使用来自维基百科的预训练词向量,"glove-wiki-gigaword-100" ,在 Gensim。如 this example documentation显示,您可以使用给定的词或词组查询最相似的词

model_gigaword.wv.most_similar(positive=['dirty','grimy'],topn=10)
但是,我想查询与 最相似的词给定向量 ,指定为数组(与来自预训练模型的词向量格式相同)。例如,在预训练模型中加减两个词向量的结果,如
vec = model_gigaword['king']-model_gigaword['man']
输出:(对于 vec )
array([-0.696     , -1.26119   , -0.49109   ,  0.91179   ,  0.23077281,
-0.18835002, -0.65568995, -0.29686698, -0.60074997, -1.35762 ,
-0.11816999, 0.01779997, -0.74096 , 0.21192 , -0.407071 ,
-1.04871 , -0.480674 , -0.95541 , -0.06046999, 0.20678002,
-1.1516 , -0.98955095, 0.44508 , 0.32682198, -0.03306001,
-0.31138003, 0.87721 , 0.34279 , 0.78621 , -0.297459 ,
0.529243 , -0.07398 , 0.551844 , 0.54218 , -0.39394 ,
0.96368 , 0.22518003, 0.05197001, -0.912573 , -0.718755 ,
0.08056 , 0.421177 , -0.34256 , -0.71294 , -0.25391 ,
-0.65362 , -0.31369498, 0.216278 , 0.41873002, -0.21784998,
0.21340999, 0.480393 , 0.47077006, -1.00272 , 0.16624999,
-0.07340002, 0.09219003, -0.02021003, -0.58403 , -0.47306 ,
0.05066001, -0.64416003, 0.80061007, 0.224344 , -0.20483994,
-0.33785298, -1.24589 , 0.08900005, -0.08385998, -0.195515 ,
0.08500999, -0.55749 , 0.19473001, -0.0751 , -0.61184 ,
-0.08018 , -0.34303 , 1.03759 , -0.36085004, 0.93508005,
-0.00997001, -0.57282 , 0.33101702, 0.271261 , 0.47389007,
1.1219599 , -0.00199997, -1.609 , 0.57377803, -0.17023998,
-0.22913098, -0.33818996, -0.367797 , 0.367965 , -1.08955 ,
-0.664806 , 0.05213001, 0.40829998, 0.125692 , -0.44967002],
dtype=float32)
如何获得与 vec 最相似的词?

最佳答案

您可以直接使用 model_gigaword.wv.most_similar

your_word_vector = np.array([-0.696, -1.26119, -0.49109, 0.91179, 0.23077281,
-0.18835002, -0.65568995, -0.29686698, -0.60074997, -1.35762 ,
-0.11816999, 0.01779997, -0.74096 , 0.21192 , -0.407071 ,
-1.04871 , -0.480674 , -0.95541 , -0.06046999, 0.20678002,
-1.1516 , -0.98955095, 0.44508 , 0.32682198, -0.03306001,
-0.31138003, 0.87721 , 0.34279 , 0.78621 , -0.297459 ,
0.529243 , -0.07398 , 0.551844 , 0.54218 , -0.39394 ,
0.96368 , 0.22518003, 0.05197001, -0.912573 , -0.718755 ,
0.08056 , 0.421177 , -0.34256 , -0.71294 , -0.25391 ,
-0.65362 , -0.31369498, 0.216278 , 0.41873002, -0.21784998,
0.21340999, 0.480393 , 0.47077006, -1.00272 , 0.16624999,
-0.07340002, 0.09219003, -0.02021003, -0.58403 , -0.47306 ,
0.05066001, -0.64416003, 0.80061007, 0.224344 , -0.20483994,
-0.33785298, -1.24589 , 0.08900005, -0.08385998, -0.195515 ,
0.08500999, -0.55749 , 0.19473001, -0.0751 , -0.61184 ,
-0.08018 , -0.34303 , 1.03759 , -0.36085004, 0.93508005,
-0.00997001, -0.57282 , 0.33101702, 0.271261 , 0.47389007,
1.1219599 , -0.00199997, -1.609 , 0.57377803, -0.17023998,
-0.22913098, -0.33818996, -0.367797 , 0.367965 , -1.08955 ,
-0.664806 , 0.05213001, 0.40829998, 0.125692 , -0.44967002])

model_gigaword.wv.most_similar(positive=[your_word_vector], topn=10)
[('vajiravudh', 0.7130449414253235),
('prajadhipok', 0.6764554381370544),
('andrianampoinimerina', 0.6474215984344482),
('jeongjo', 0.6449092626571655),
('taejong', 0.6352322697639465),
('rehoboam', 0.6319528818130493),
('injo', 0.6317901611328125),
('gojong', 0.6302404999732971),
('seonjo', 0.6272163391113281),
('elessar', 0.6250109672546387)]

正如预期的那样,这些结果几乎是垃圾。阅读下面的原因。

不过有一点很重要。我看到您正在尝试在词向量的欧几里得空间中找到与差异向量相似的词。 king的区别和 man导致向量与 queen 之间的差异相似和 woman意味着差异向量的长度和方向对 2 个相应词对之间的上下文差异进行编码。
该向量的字面位置可能是垃圾,因为通过在欧几里德空间中检查它,您会将其 anchor 定在原点上。上面的两个差异向量(King->Man 和 Queen->Woman)分别 anchor 定在“King”和“Queen”上。
您应该具有的直觉是 A->B 和 C->D 可能有相似的向量连接它们,即使 A、B 和 C、D 可能排在欧几里德空间的完全独立的部分,如果它们之间有相似的上下文差异他们。这就是经过适当训练的 word2vec 中的向量空间所编码的内容。
enter image description here

关于python - Gensim 与向量最相似的词,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/64974507/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com