gpt4 book ai didi

python - 是什么导致通过交换 Eigen::Tensor 收缩中的张量产生不同的结果?

转载 作者:太空宇宙 更新时间:2023-11-03 14:27:02 25 4
gpt4 key购买 nike

我正在开发一个依赖张量收缩的 C++ 库。我不会在这里发布完整的应用程序,但我已将其精简为以下内容。

我们定义了一个玩具等级 4 张量,它只不过是 (0, 1, ..., 15) reshape :

Eigen::Tensor<double, 4> T (2, 2, 2, 2);
for (size_t i = 0; i < 2; i++) {
for (size_t j = 0; j < 2; j++) {
for (size_t k = 0; k < 2; k++) {
for (size_t l = 0; l < 2; l++) {
T(i, j, k, l) = l + 2 * k + 4 * j + 8 * i;
}
}
}
}

和一个要收缩的 2 阶张量,它只不过是 (1, 2, 3, 4) reshape :

Eigen::Tensor<double, 2> A (2, 2);
for (size_t i = 0; i < 2; i++) {
for (size_t j = 0; j < 2; j++) {
A(i, j) = 1 + j + 2 * i;
}
}

要收缩特征值中的两个张量,我们必须指定一个收缩对。我们的目标是收缩张量的前两个索引,如 T(ijkl)*A(ib)=M(bjkl) 所示。以我目前对 Eigen 中 Tensor 模块的理解,我们将收缩对写为

Eigen::array<Eigen::IndexPair<int>, 1> contraction_pair = {Eigen::IndexPair<int>(0, 0)};

但是,我认为应该可以使用完全相同的收缩对来执行收缩A(ib)*T(ijkl)=N(bjkl)。不幸的是,情况并非如此,M 的元素是

0 0 0 0  24
0 0 0 1 32
0 0 1 0 28
0 0 1 1 38
0 1 0 0 32
0 1 0 1 44
0 1 1 0 36
0 1 1 1 50
1 0 0 0 40
1 0 0 1 56
1 0 1 0 44
1 0 1 1 62
1 1 0 0 48
1 1 0 1 68
1 1 1 0 52
1 1 1 1 74

N 中的这些是

0 0 0 0  24
0 0 0 1 28
0 0 1 0 32
0 0 1 1 36
0 1 0 0 40
0 1 0 1 44
0 1 1 0 48
0 1 1 1 52
1 0 0 0 32
1 0 0 1 38
1 0 1 0 44
1 0 1 1 50
1 1 0 0 56
1 1 0 1 62
1 1 1 0 68
1 1 1 1 74

我已经使用 einsum 在 numpy 中测试了相同的玩具张量:

T = np.arange(16).reshape(2, 2, 2, 2)
A = np.arange(1, 5).reshape(2, 2)

contraction1 = np.einsum('ijkl,ia->ajkl', integrals, C)
contraction2 = np.einsum('ia,ijkl->ajkl', C, integrals)

并且 contraction1contraction2 都是

0   0   0   0   24
0 0 0 1 28
0 0 1 0 32
0 0 1 1 36
0 1 0 0 40
0 1 0 1 44
0 1 1 0 48
0 1 1 1 52
1 0 0 0 32
1 0 0 1 38
1 0 1 0 44
1 0 1 1 50
1 1 0 0 56
1 1 0 1 62
1 1 1 0 68
1 1 1 1 74

这与 Eigen 中的情况 A(ib)*T(ijkl)=N(bjkl) 一致。是什么导致 Eigen 在这两种情况下没有给出相同的结果?

最佳答案

Eigen 接口(interface)似乎仅采用收缩轴进行规范。因此,它必须自行决定如何排列非收缩轴。最明显的方法是保持原始轴的顺序,首先是第一个参数,然后是第二个。

为了确认这一点,我们可以

  • 使用 np.einsum 指定不同的输出布局并与 Eigen 的输出进行比较:

.

import numpy as np

T = np.arange(16).reshape(2, 2, 2, 2)
A = np.arange(1, 5).reshape(2, 2)

print(np.einsum('ijkl,ia->ajkl', T, A))
# [[[[24 28]
# [32 36]]

# [[40 44]
# [48 52]]]


# [[[32 38]
# [44 50]]

# [[56 62]
# [68 74]]]]

print(np.einsum('ijkl,ia->jkla', T, A))
# [[[[24 32]
# [28 38]]

# [[32 44]
# [36 50]]]


# [[[40 56]
# [44 62]]

# [[48 68]
# [52 74]]]]
  • 或直接在Eigen中随机播放(感谢@lelemmen):

.

M.shuffle(Eigen::array<int, 4> {3, 0, 1, 2})
(M_shuffled == N).all()

# 1

关于python - 是什么导致通过交换 Eigen::Tensor 收缩中的张量产生不同的结果?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47556726/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com