gpt4 book ai didi

performance - Matlab bsxfun() - 如何解释沿不同维度扩展时的性能差异?

转载 作者:太空宇宙 更新时间:2023-11-03 19:24:49 25 4
gpt4 key购买 nike

在我的工作(计量经济学/统计学)中,我经常需要将不同大小的矩阵相乘,然后对生成的矩阵执行其他操作。我一直依靠 bsxfun() 来矢量化代码,总的来说我发现它比 repmat() 更有效。但我不明白的是,为什么有时 bsxfun() 的性能在沿不同维度扩展矩阵时会大不相同。

考虑这个具体的例子:

x      = ones(j, k, m);
beta = rand(k, m, s);

exp_xBeta = zeros(j, m, s);
for im = 1 : m
for is = 1 : s
xBeta = x(:, :, im) * beta(:, im, is);
exp_xBeta(:, im, is) = exp(xBeta);
end
end

y = mean(exp_xBeta, 3);

上下文:

我们有来自 m 个市场的数据,在每个市场中我们要计算 exp(X * beta) 的期望值,其中 X 是一个 j x k 矩阵,beta 是一个 k x 1 随机向量.我们通过蒙特卡洛积分计算这个期望 - 绘制 sbeta,为每个绘制计算 exp(X * beta),然后取平均值。通常我们使用 m > k > j 获取数据,并且我们使用非常大的 s。在这个例子中,我只是让 X 成为一个矩阵。

我使用 bsxfun() 做了 3 个版本的向量化,它们的区别在于 Xbeta 的形状:

矢量化 1

x1      = x;                                    % size [ j k m 1 ]
beta1 = permute(beta, [4 1 2 3]); % size [ 1 k m s ]

tic
xBeta = bsxfun(@times, x1, beta1);
exp_xBeta = exp(sum(xBeta, 2));
y1 = permute(mean(exp_xBeta, 4), [1 3 2 4]); % size [ j m ]
time1 = toc;

矢量化 2

x2      = permute(x, [4 1 2 3]);                % size [ 1 j k m ]
beta2 = permute(beta, [3 4 1 2]); % size [ s 1 k m ]

tic
xBeta = bsxfun(@times, x2, beta2);
exp_xBeta = exp(sum(xBeta, 3));
y2 = permute(mean(exp_xBeta, 1), [2 4 1 3]); % size [ j m ]
time2 = toc;

矢量化 3

x3      = permute(x, [2 1 3 4]);                % size [ k j m 1 ]
beta3 = permute(beta, [1 4 2 3]); % size [ k 1 m s ]

tic
xBeta = bsxfun(@times, x3, beta3);
exp_xBeta = exp(sum(xBeta, 1));
y3 = permute(mean(exp_xBeta, 4), [2 3 1 4]); % size [ j m ]
time3 = toc;

这就是它们的表现(通常我们使用 m > k > j 获取数据,并且我们使用了非常大的 s):

j = 5,k = 15,m = 100,s = 2000:

For-loop version took 0.7286 seconds.
Vectorized version 1 took 0.0735 seconds.
Vectorized version 2 took 0.0369 seconds.
Vectorized version 3 took 0.0503 seconds.

j = 10,k = 15,m = 150,s = 5000:

For-loop version took 2.7815 seconds.
Vectorized version 1 took 0.3565 seconds.
Vectorized version 2 took 0.2657 seconds.
Vectorized version 3 took 0.3433 seconds.

j = 15,k = 35,m = 150,s = 5000:

For-loop version took 3.4881 seconds.
Vectorized version 1 took 1.0687 seconds.
Vectorized version 2 took 0.8465 seconds.
Vectorized version 3 took 0.9414 seconds.

为什么版本 2 始终是最快的版本?最初,我认为性能优势是因为 s 设置为维度 1,Matlab 可能能够更快地计算,因为它以列优先顺序存储数据。但是 Matlab 的分析器告诉我,计算该平均值所花费的时间相当微不足道,并且在所有 3 个版本中都或多或少相同。 Matlab 大部分时间都在用 bsxfun() 评估该行,这也是三个版本中运行时差异最大的地方。

有没有想过为什么版本 1 总是最慢而版本 2 总是最快的?

我在这里更新了我的测试代码: Code

编辑:这篇文章的早期版本不正确。 beta 的大小应为 (k, m, s)

最佳答案

bsxfun当然是向量化事物的好工具之一,但如果你能以某种方式引入 matrix-multiplication 那将是最好的方法,如 matrix multiplications are really fast on MATLAB .

在这里你似乎可以使用matrix-multiplication来得到exp_xBeta -

[m1,n1,r1] = size(x);
n2 = size(beta,2);
exp_xBeta_matmult = reshape(exp(reshape(permute(x,[1 3 2]),[],n1)*beta),m1,r1,n2)

或者直接获取y如下图——

y_matmult = reshape(mean(exp(reshape(permute(x,[1 3 2]),[],n1)*beta),2),m1,r1)

解释

为了更详细地解释它,我们将尺寸设置为 -

x      : (j, k, m)
beta : (k, s)

我们的最终目标是使用矩阵乘法xbeta 中“消除”k。因此,我们可以使用 permutex 中的 k“推”到末尾,并 reshape 为保持 k 的二维> 作为行,即 ( j * m , k ),然后用 beta ( k , s ) 执行矩阵乘法,得到 ( j * m , s )。然后可以将乘积重新整形为 3D 数组(j、m、s)并执行元素指数,这将是 exp_xBeta

现在,如果最终目标是 y,即沿 exp_xBeta 的第三维获取平均值,则相当于计算沿行的平均值矩阵乘积 (j * m, s ),然后 reshape 为 ( j , m ) 以直接得到我们 y

关于performance - Matlab bsxfun() - 如何解释沿不同维度扩展时的性能差异?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30408795/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com