gpt4 book ai didi

Python、numpy、einsum 将一叠矩阵相乘

转载 作者:太空狗 更新时间:2023-10-29 18:32:43 28 4
gpt4 key购买 nike

出于性能原因,

我很好奇是否有一种方法可以将一堆矩阵相乘。我有一个 4 维数组(500、201、2、2)。它基本上是一个 500 个长度的 (201,2,2) 矩阵堆栈,对于 500 个矩阵中的每一个,我想使用 einsum 将相邻矩阵相乘并得到另一个 (201,2,2) 矩阵。

最后我只对 [2x2] 矩阵进行矩阵乘法。由于我的解释已经偏离轨道,我将只展示我现在正在做的事情,以及“减少”等效项以及为什么它没有帮助(因为它在计算上的速度相同)。最好这将是一个 NumPy 的单行,但我不知道那是什么,或者即使它可能。

代码:

Arr = rand(500,201,2,2)

def loopMult(Arr):
ArrMult = Arr[0]
for i in range(1,len(Arr)):
ArrMult = np.einsum('fij,fjk->fik', ArrMult, Arr[i])
return ArrMult

def myeinsum(A1, A2):
return np.einsum('fij,fjk->fik', A1, A2)

A1 = loopMult(Arr)
A2 = reduce(myeinsum, Arr)
print np.all(A1 == A2)

print shape(A1); print shape(A2)

%timeit loopMult(Arr)
%timeit reduce(myeinsum, Arr)

返回:

True
(201, 2, 2)
(201, 2, 2)
10 loops, best of 3: 34.8 ms per loop
10 loops, best of 3: 35.2 ms per loop

如有任何帮助,我们将不胜感激。一切正常,但当我必须对大量参数进行迭代时,代码往往会花费很长时间,我想知道是否有办法通过一个循环避免 500 次迭代。

最佳答案

我不认为使用 numpy 可以有效地做到这一点(虽然 cumprod 解决方案很优雅)。在这种情况下,我会使用 f2py。这是调用我所知道的更快语言的最简单方法,并且只需要一个额外的文件。

fortran.f90:

subroutine multimul(a, b)
implicit none
real(8), intent(in) :: a(:,:,:,:)
real(8), intent(out) :: b(size(a,1),size(a,2),size(a,3))
real(8) :: work(size(a,1),size(a,2))
integer i, j, k, l, m
!$omp parallel do private(work,i,j)
do i = 1, size(b,3)
b(:,:,i) = a(:,:,i,size(a,4))
do j = size(a,4)-1, 1, -1
work = matmul(b(:,:,i),a(:,:,i,j))
b(:,:,i) = work
end do
end do
end subroutine

使用 f2py -c -m fortran fortran.f90 编译(或 F90FLAGS="-fopenmp"f2py -c -m fortran fortran.f90 -lgomp 以启用 OpenMP加速度)。然后你会在你的脚本中使用它作为

import numpy as np, fmuls
Arr = np.random.standard_normal([500,201,2,2])
def loopMult(Arr):
ArrMult = Arr[0]
for i in range(1,len(Arr)):
ArrMult = np.einsum('fij,fjk->fik', ArrMult, Arr[i])
return ArrMult
def myeinsum(A1, A2):
return np.einsum('fij,fjk->fik', A1, A2)
A1 = loopMult(Arr)
A2 = reduce(myeinsum, Arr)
A3 = fmuls.multimul(Arr.T).T
print np.allclose(A1,A2)
print np.allclose(A1,A3)
%timeit loopMult(Arr)
%timeit reduce(myeinsum, Arr)
%timeit fmuls.multimul(Arr.T).T

哪些输出

True
True
10 loops, best of 3: 48.4 ms per loop
10 loops, best of 3: 48.8 ms per loop
100 loops, best of 3: 5.82 ms per loop

所以这是 8 倍的加速。所有转置的原因是 f2py 隐式转置了所有数组,我们需要手动转置它们以告诉它我们的 fortran 代码期望进行转置。这避免了复制操作。代价是我们的每个 2x2 矩阵都被转置,因此为了避免执行错误的操作,我们必须反向循环。

大于 8 的加速应该是可能的——我没有花任何时间来优化它。

关于Python、numpy、einsum 将一叠矩阵相乘,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25981180/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com