gpt4 book ai didi

java - 主题建模槌 : how to interpret the Kullback-Leibler divergence

转载 作者:搜寻专家 更新时间:2023-11-01 03:52:20 24 4
gpt4 key购买 nike

在从 mallet 中的各种文档中获得各种概率分布后,我应用以下代码来计算第一个和第二个文档之间的 KL 散度:

        Maths.klDivergence(double[] d1,double[] d2);

我应该如何解释获得的数据?例如,我得到:12.3640 ...这是什么意思?两个分布是近还是远?

最佳答案

顾名思义,KL-Divergence 给出了一种分布与另一种分布的差异。它基本上是一个分布在接近另一个分布时丢失的信息,这意味着 - 值越小,相似度越高。如果更相似你不会丢失任何信息

关于java - 主题建模槌 : how to interpret the Kullback-Leibler divergence,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22349669/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com