- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我正在尝试使用 scipy.stats.entropy 来估计两个分布之间的 Kullback–Leibler (KL) 散度。更具体地说,我想使用 KL 作为衡量标准来确定两个分布的一致性。
但是,我无法解释 KL 值。例如:
t1=numpy.random.normal(-2.5,0.1,1000)
t2=numpy.random.normal(-2.5,0.1,1000)
scipy.stats.entropy(t1,t2)
0.0015539217193737955
然后,
t1=numpy.random.normal(-2.5,0.1,1000)
t2=numpy.random.normal(2.5,0.1,1000)
scipy.stats.entropy(t1,t2)
= 0.0015908295787942181
基本上没有重叠的完全不同的分布如何具有相同的 KL 值?
t1=numpy.random.normal(-2.5,0.1,1000)
t2=numpy.random.normal(25.,0.1,1000)
scipy.stats.entropy(t1,t2)
= 0.00081111364805590595
这个给出了更小的 KL 值(即距离),我倾向于将其解释为“更一致”。
关于如何在这种情况下解释 scipy.stats.entropy(即 KL 散度距离)的任何见解?
最佳答案
numpy.random.normal(-2.5,0.1,1000)
是来自正态分布的样本。它只是随机排列的 1000 个数字。 documentation对于 entropy
说:
pk[i]
is the (possibly unnormalized) probability of eventi
.
因此,为了获得有意义的结果,您需要将数字“对齐”,以便相同的索引对应于分布中的相同位置。在您的示例中,t1[0]
与 t2[0]
没有关系。您的样本没有提供任何关于每个值的概率的直接信息,而这正是 KL 散度所需要的;它只是为您提供一些从分布中获取的实际值。
获得对齐值的最直接方法是在某些固定值集上评估分布的概率密度函数。为此,您需要使用 scipy.stats.norm
(生成一个可以通过多种方式操作的分布对象)而不是 np.random.normal
(它仅返回采样值)。这是一个例子:
t1 = stats.norm(-2.5, 0.1)
t2 = stats.norm(-2.5, 0.1)
t3 = stats.norm(-2.4, 0.1)
t4 = stats.norm(-2.3, 0.1)
# domain to evaluate PDF on
x = np.linspace(-5, 5, 100)
然后:
>>> stats.entropy(t1.pdf(x), t2.pdf(x))
-0.0
>>> stats.entropy(t1.pdf(x), t3.pdf(x))
0.49999995020647586
>>> stats.entropy(t1.pdf(x), t4.pdf(x))
1.999999900414918
您可以看到,随着分布越来越远,它们的 KL 散度会增加。 (实际上,使用您的第二个示例会产生 inf
的 KL 散度,因为它们重叠得很少。)
关于python - 解释 scipy.stats.entropy 值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26743201/
我在使用 cx_freeze 和 scipy 时无法编译 exe。特别是,我的脚本使用 from scipy.interpolate import griddata 构建过程似乎成功完成,但是当我尝试
是否可以通过函数在 scipy 中定义一个稀疏矩阵,而不是列出所有可能的值?在文档中,我看到可以通过以下方式创建稀疏矩阵 There are seven available sparse matrix
SciPy为非线性最小二乘问题提供了两种功能: optimize.leastsq()仅使用Levenberg-Marquardt算法。 optimize.least_squares()允许我们选择Le
SciPy 中的求解器能否处理复数值(即 x=x'+i*x")?我对使用 Nelder-Mead 类型的最小化函数特别感兴趣。我通常是 Matlab 用户,我知道 Matlab 没有复杂的求解器。如果
我有看起来像这样的数据集: position number_of_tag_at_this_position 3 4 8 6 13 25 23 12 我想对这个数据集应用三次样条插值来插值标签密度;为此
所以,我正在处理维基百科转储,以计算大约 5,700,000 个页面的页面排名。这些文件经过预处理,因此不是 XML 格式。 它们取自 http://haselgrove.id.au/wikipedi
Scipy 和 Numpy 返回归一化的特征向量。我正在尝试将这些向量用于物理应用程序,我需要它们不被标准化。 例如a = np.matrix('-3, 2; -1, 0') W,V = spl.ei
基于此处提供的解释 1 ,我正在尝试使用相同的想法来加速以下积分: import scipy.integrate as si from scipy.optimize import root, fsol
这很容易重新创建。 如果我的脚本 foo.py 是: import scipy 然后运行: python pyinstaller.py --onefile foo.py 当我启动 foo.exe 时,
我想在我的代码中使用 scipy.spatial.distance.cosine。如果我执行类似 import scipy.spatial 或 from scipy import spatial 的操
Numpy 有一个基本的 pxd,声明它的 c 接口(interface)到 cython。是否有用于 scipy 组件(尤其是 scipy.integrate.quadpack)的 pxd? 或者,
有人可以帮我处理 scipy.stats.chisquare 吗?我没有统计/数学背景,我正在使用来自 https://en.wikipedia.org/wiki/Chi-squared_test 的
我正在使用 scipy.odr 拟合数据与权重,但我不知道如何获得拟合优度或 R 平方的度量。有没有人对如何使用函数存储的输出获得此度量有建议? 最佳答案 res_var Output 的属性是所谓的
我刚刚下载了新的 python 3.8,我正在尝试使用以下方法安装 scipy 包: pip3.8 install scipy 但是构建失败并出现以下错误: **Failed to build sci
我有 my own triangulation algorithm它基于 Delaunay 条件和梯度创建三角剖分,使三角形与梯度对齐。 这是一个示例输出: 以上描述与问题无关,但对于上下文是必要的。
这是一个非常基本的问题,但我似乎找不到好的答案。 scipy 到底计算什么内容 scipy.stats.norm(50,10).pdf(45) 据我了解,平均值为 50、标准差为 10 的高斯中像 4
我正在使用 curve_fit 来拟合一阶动态系统的阶跃响应,以估计增益和时间常数。我使用两种方法。第一种方法是在时域中拟合从函数生成的曲线。 # define the first order dyn
让我们假设 x ~ Poisson(2.5);我想计算类似 E(x | x > 2) 的东西。 我认为这可以通过 .dist.expect 运算符来完成,即: D = stats.poisson(2.
我正在通过 OpenMDAO 使用 SLSQP 来解决优化问题。优化工作充分;最后的 SLSQP 输出如下: Optimization terminated successfully. (Exi
log( VA ) = gamma - (1/eta)log[alpha L ^(-eta) + 测试版 K ^(-eta)] 我试图用非线性最小二乘法估计上述函数。我为此使用了 3 个不同的包(Sc
我是一名优秀的程序员,十分优秀!