- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在训练在 python 上对 MNIST 进行一些 PCA 重建,并将它们与我在 maltab 中的(旧)重建进行比较,我碰巧发现我的重建不一致。经过一番调试后,我决定打印每个组件主要组件的独特特征,以揭示它们是否相同,但我惊讶地发现它们不相同。我打印了所有组件的总和,但得到了不同的数字。我在 matlab 中做了以下工作:
[coeff, ~, ~, ~, ~, mu] = pca(X_train);
U = coeff(:,1:K)
U_fingerprint = sum(U(:))
%print 31.0244
在 python/scipy 中:
pca = pca.fit(X_train)
U = pca.components_
print 'U_fingerprint', np.sum(U)
# prints 12.814
为什么 twi PCA 没有计算出相同的值?
<小时/>我所有的尝试和解决这个问题:
我发现这一点的原因是,当我重建 MNIST 图像时,Python 重建结果与原始图像更加接近。我在 python 中遇到了 0.0221556788645
的错误,而在 MATLAB 中遇到了大小为 29.07578
的错误。为了弄清楚差异来自哪里,我决定对数据集进行指纹识别(也许它们的标准化方式不同)。因此,我获得了 MNIST 数据集的两个独立副本(通过除以 255 进行标准化)并获得了指纹(将数据集中的所有数字相加):
print np.sum(x_train) # from keras
print np.sum(X_train)+np.sum(X_cv) # from TensorFlow
6.14628e+06
6146269.1585420668
它们(本质上)是相同的(一个副本来自tensorflow MNIST,另一个副本来自Keras MNIST,请注意,MNIST 训练数据集大约少了 1000 个训练集,因此您需要附加缺失的训练集)。令我惊讶的是,我的 MATLAB 数据具有相同的指纹:
data_fingerprint = sum(X_train(:))
% prints data_fingerprint = 6.1463e+06
这意味着数据集完全相同。很好,所以标准化数据不是问题。
在我的 MATLAB 脚本中,我实际上是手动计算重建,如下所示:
U = coeff(:,1:K)
X_tilde_train = (U * U' * X_train);
train_error_PCA = (1/N_train)*norm( X_tilde_train - X_train ,'fro')^2
%train_error_PCA = 29.0759
所以我认为这可能是问题所在,因为我正在使用 python 提供的接口(interface)来计算重建,如下所示:
pca = PCA(n_components=k)
pca = pca.fit(X_train)
X_pca = pca.transform(X_train) # M_train x K
#print 'X_pca' , X_pca.shape
X_reconstruct = pca.inverse_transform(X_pca)
print 'tensorflow error: ',(1.0/X_train.shape[0])*LA.norm(X_reconstruct_tf - X_train)
print 'keras error: ',(1.0/x_train.shape[0])*LA.norm(X_reconstruct_keras - x_train)
#tensorflow error: 0.0221556788645
#keras error: 0.0212030354818
这会导致不同的误差值 0.022 与 29.07,差异令人震惊!
因此,我决定在我的 python 脚本中编写精确的重建公式:
pca = PCA(n_components=k)
pca = pca.fit(X_train)
U = pca.components_
print 'U_fingerprint', np.sum(U)
X_my_reconstruct = np.dot( U.T , np.dot(U, X_train.T) )
print 'U error: ',(1.0/X_train.shape[0])*LA.norm(X_reconstruct_tf - X_train)
# U error: 0.0221556788645
令我惊讶的是,它与我使用该接口(interface)计算的 MNIST 错误有相同的错误。因此,我得出的结论是,我并没有像我想象的那样对 PCA 产生误解。
所有这些都促使我检查主成分的实际位置,令我惊讶的是 scipy 和 MATLAB 的 PCA 值具有不同的指纹。
有人知道为什么或发生了什么事吗?
<小时/>正如 Warren 所建议的,主成分分析分量(特征向量)可能具有不同的符号。通过添加幅度中的所有组件来进行指纹打印后,我发现它们具有相同的指纹:
[coeff, ~, ~, ~, ~, mu] = pca(X_train);
K=12;
U = coeff(:,1:K)
U_fingerprint = sumabs(U(:))
% U_fingerprint = 190.8430
对于Python:
k=12
pca = PCA(n_components=k)
pca = pca.fit(X_train)
print 'U_fingerprint', np.sum(np.absolute(U))
# U_fingerprint 190.843
这意味着差异一定是由于 (pca) U 向量的符号不同造成的。我觉得这很令人惊讶,我认为这应该会产生很大的影响,我什至不认为它会产生很大的影响。我想我错了?
最佳答案
我不知道这是否是问题所在,但肯定可能是。主成分向量就像特征向量:如果将向量乘以 -1,它仍然是有效的 PCA 向量。 matlab 计算的某些向量可能具有与 python 计算的向量不同的符号。这将导致截然不同的金额。
例如,matlab文档中有这样的例子:
coeff = pca(ingredients)
coeff =
-0.0678 -0.6460 0.5673 0.5062
-0.6785 -0.0200 -0.5440 0.4933
0.0290 0.7553 0.4036 0.5156
0.7309 -0.1085 -0.4684 0.4844
我有自己的 python PCA 代码,并且使用与 matlab 中相同的输入,它会生成以下系数数组:
[[ 0.0678 0.646 -0.5673 0.5062]
[ 0.6785 0.02 0.544 0.4933]
[-0.029 -0.7553 -0.4036 0.5156]
[-0.7309 0.1085 0.4684 0.4844]]
因此,不要简单地对系数数组求和,而是尝试对系数的绝对值求和。或者,在求和之前确保所有向量具有相同的符号约定。例如,您可以通过将每一列乘以该列中第一个元素的符号(假设它们都不为零)来做到这一点。
关于matlab - 为什么 Scipy 和 MATLAB 的主成分值不一致?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38782093/
我在使用 cx_freeze 和 scipy 时无法编译 exe。特别是,我的脚本使用 from scipy.interpolate import griddata 构建过程似乎成功完成,但是当我尝试
是否可以通过函数在 scipy 中定义一个稀疏矩阵,而不是列出所有可能的值?在文档中,我看到可以通过以下方式创建稀疏矩阵 There are seven available sparse matrix
SciPy为非线性最小二乘问题提供了两种功能: optimize.leastsq()仅使用Levenberg-Marquardt算法。 optimize.least_squares()允许我们选择Le
SciPy 中的求解器能否处理复数值(即 x=x'+i*x")?我对使用 Nelder-Mead 类型的最小化函数特别感兴趣。我通常是 Matlab 用户,我知道 Matlab 没有复杂的求解器。如果
我有看起来像这样的数据集: position number_of_tag_at_this_position 3 4 8 6 13 25 23 12 我想对这个数据集应用三次样条插值来插值标签密度;为此
所以,我正在处理维基百科转储,以计算大约 5,700,000 个页面的页面排名。这些文件经过预处理,因此不是 XML 格式。 它们取自 http://haselgrove.id.au/wikipedi
Scipy 和 Numpy 返回归一化的特征向量。我正在尝试将这些向量用于物理应用程序,我需要它们不被标准化。 例如a = np.matrix('-3, 2; -1, 0') W,V = spl.ei
基于此处提供的解释 1 ,我正在尝试使用相同的想法来加速以下积分: import scipy.integrate as si from scipy.optimize import root, fsol
这很容易重新创建。 如果我的脚本 foo.py 是: import scipy 然后运行: python pyinstaller.py --onefile foo.py 当我启动 foo.exe 时,
我想在我的代码中使用 scipy.spatial.distance.cosine。如果我执行类似 import scipy.spatial 或 from scipy import spatial 的操
Numpy 有一个基本的 pxd,声明它的 c 接口(interface)到 cython。是否有用于 scipy 组件(尤其是 scipy.integrate.quadpack)的 pxd? 或者,
有人可以帮我处理 scipy.stats.chisquare 吗?我没有统计/数学背景,我正在使用来自 https://en.wikipedia.org/wiki/Chi-squared_test 的
我正在使用 scipy.odr 拟合数据与权重,但我不知道如何获得拟合优度或 R 平方的度量。有没有人对如何使用函数存储的输出获得此度量有建议? 最佳答案 res_var Output 的属性是所谓的
我刚刚下载了新的 python 3.8,我正在尝试使用以下方法安装 scipy 包: pip3.8 install scipy 但是构建失败并出现以下错误: **Failed to build sci
我有 my own triangulation algorithm它基于 Delaunay 条件和梯度创建三角剖分,使三角形与梯度对齐。 这是一个示例输出: 以上描述与问题无关,但对于上下文是必要的。
这是一个非常基本的问题,但我似乎找不到好的答案。 scipy 到底计算什么内容 scipy.stats.norm(50,10).pdf(45) 据我了解,平均值为 50、标准差为 10 的高斯中像 4
我正在使用 curve_fit 来拟合一阶动态系统的阶跃响应,以估计增益和时间常数。我使用两种方法。第一种方法是在时域中拟合从函数生成的曲线。 # define the first order dyn
让我们假设 x ~ Poisson(2.5);我想计算类似 E(x | x > 2) 的东西。 我认为这可以通过 .dist.expect 运算符来完成,即: D = stats.poisson(2.
我正在通过 OpenMDAO 使用 SLSQP 来解决优化问题。优化工作充分;最后的 SLSQP 输出如下: Optimization terminated successfully. (Exi
log( VA ) = gamma - (1/eta)log[alpha L ^(-eta) + 测试版 K ^(-eta)] 我试图用非线性最小二乘法估计上述函数。我为此使用了 3 个不同的包(Sc
我是一名优秀的程序员,十分优秀!