gpt4 book ai didi

tensorflow - 级联矩阵乘法是否比多个非级联矩阵乘法更快?如果是这样,为什么?

转载 作者:行者123 更新时间:2023-12-05 07:25:25 25 4
gpt4 key购买 nike

LSTM 单元的定义涉及与输入的 4 次矩阵乘法,以及与输出的 4 次矩阵乘法。我们可以通过连接 4 个小矩阵(现在矩阵大 4 倍)使用单个矩阵乘法来简化表达式。

我的问题是:这是否提高了矩阵乘法的效率?如果是这样,为什么?因为我们可以把它们放在连续的内存中?还是因为代码简洁?

无论我们是否连接矩阵,我们相乘的项目数都不会改变。 (因此复杂性不应该改变。)所以我想知道为什么我们要这样做..

这是 torch.nn.LSTM(*args, **kwargs) 的 pytorch 文档的摘录。 W_ii、W_if、W_ig、W_io 连接在一起。

weight_ih_l[k] – the learnable input-hidden weights of the \text{k}^{th}k 
th
layer (W_ii|W_if|W_ig|W_io), of shape (4*hidden_size x input_size)

weight_hh_l[k] – the learnable hidden-hidden weights of the \text{k}^{th}k
th
layer (W_hi|W_hf|W_hg|W_ho), of shape (4*hidden_size x hidden_size)

bias_ih_l[k] – the learnable input-hidden bias of the \text{k}^{th}k
th
layer (b_ii|b_if|b_ig|b_io), of shape (4*hidden_size)

bias_hh_l[k] – the learnable hidden-hidden bias of the \text{k}^{th}k
th
layer (b_hi|b_hf|b_hg|b_ho), of shape (4*hidden_size)

最佳答案

LSTM 的结构不是为了提高乘法效率,而是为了绕过递减/爆炸梯度 (https://stats.stackexchange.com/questions/185639/how-does-lstm-prevent-the-vanishing-gradient-problem)。目前正在进行一些研究来减轻渐减梯度的影响,而 GRU/LSTM 单元 + 窥视孔很少尝试减轻这种影响。

关于tensorflow - 级联矩阵乘法是否比多个非级联矩阵乘法更快?如果是这样,为什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54799384/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com