gpt4 book ai didi

python - numpy 似乎为圆形矩阵返回错误的特征向量

转载 作者:太空宇宙 更新时间:2023-11-04 00:50:41 25 4
gpt4 key购买 nike

我正在使用 numpy 计算循环矩阵的特征值和特征向量。这是我的代码(j=1,2...6 的 Hji 是预定义的):

>>> import numpy as np
>>> H = np.array([H1i, H2i, H3i, H4i, H5i, H6i])
>>> H
array([[ 0., 1., 0., 0., 0., 1.],
[ 1., 0., 1., 0., 0., 0.],
[ 0., 1., 0., 1., 0., 0.],
[ 0., 0., 1., 0., 1., 0.],
[ 0., 0., 0., 1., 0., 1.],
[ 1., 0., 0., 0., 1., 0.]])
>>> from numpy import linalg as LA
>>> w, v = LA.eig(H)

>>> w
array([-2., 2., 1., -1., -1., 1.])
>>> v
array([[ 0.40824829, -0.40824829, -0.57735027, 0.57732307, 0.06604706,
0.09791921],
[-0.40824829, -0.40824829, -0.28867513, -0.29351503, -0.5297411 ,
-0.4437968 ],
[ 0.40824829, -0.40824829, 0.28867513, -0.28380804, 0.46369403,
-0.54171601],
[-0.40824829, -0.40824829, 0.57735027, 0.57732307, 0.06604706,
-0.09791921],
[ 0.40824829, -0.40824829, 0.28867513, -0.29351503, -0.5297411 ,
0.4437968 ],
[-0.40824829, -0.40824829, -0.28867513, -0.28380804, 0.46369403,
0.54171601]])

特征值是正确的。然而,对于特征向量,我发现它们不是线性独立的

>>> V = np.zeros((6,6))
>>> for i in range(6):
... for j in range(6):
... V[i,j] = np.dot(v[:,i], v[:,j])
...

>>> V
array([[ 1.00000000e+00, -2.77555756e-17, -2.49800181e-16,
-3.19189120e-16, -1.11022302e-16, 2.77555756e-17],
[ -2.77555756e-17, 1.00000000e+00, -1.24900090e-16,
-1.11022302e-16, -8.32667268e-17, 0.00000000e+00],
[ -2.49800181e-16, -1.24900090e-16, 1.00000000e+00,
-1.52655666e-16, 8.32667268e-17, -1.69601044e-01],
[ -3.19189120e-16, -1.11022302e-16, -1.52655666e-16,
1.00000000e+00, 1.24034735e-01, -8.32667268e-17],
[ -1.11022302e-16, -8.32667268e-17, 8.32667268e-17,
1.24034735e-01, 1.00000000e+00, -1.66533454e-16],
[ 2.77555756e-17, 0.00000000e+00, -1.69601044e-01,
-8.32667268e-17, -1.66533454e-16, 1.00000000e+00]])
>>>

您可以看到有非对角线项(检查 V[2,5] = -1.69601044e-01),这意味着它们不是线性独立向量。既然是 Hermitian 矩阵,它的特征向量如何相互依赖?

对了,我也是用matlab计算的,它返回了正确的值

V =

0.4082 -0.2887 -0.5000 0.5000 0.2887 -0.4082
-0.4082 -0.2887 0.5000 0.5000 -0.2887 -0.4082
0.4082 0.5774 0 0 -0.5774 -0.4082
-0.4082 -0.2887 -0.5000 -0.5000 -0.2887 -0.4082
0.4082 -0.2887 0.5000 -0.5000 0.2887 -0.4082
-0.4082 0.5774 0 0 0.5774 -0.4082


D =

-2.0000 0 0 0 0 0
0 -1.0000 0 0 0 0
0 0 -1.0000 0 0 0
0 0 0 1.0000 0 0
0 0 0 0 1.0000 0
0 0 0 0 0 2.0000

最佳答案

eig 返回的结果非常好。这个可以看

np.allclose(v.dot(np.diag(w)).dot(LA.inv(v)),H)
True

请注意,eig 的输出对应于 v * diag(w) * inv(v) 形式的输入矩阵的因式分解,它适用于泛型可对角化矩阵。由于 eigH 视为没有特殊结构,因此返回的特征向量不应具有特殊结构,例如正交。 (不要将正交性与线性独立性混淆 - v 的列确实是线性独立的,这可以通过非零 LA.det(v) 简单地验证。)

函数 eigh 知道输入矩阵是 hermitian 并返回一个更方便的,即正交的特征向量集。

关于python - numpy 似乎为圆形矩阵返回错误的特征向量,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37292538/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com