gpt4 book ai didi

lstm - Pytorch 隐藏状态 LSTM

转载 作者:行者123 更新时间:2023-12-05 03:06:12 27 4
gpt4 key购买 nike

为什么我们需要在pytorch中初始化LSTM中的隐藏状态h0。由于 h0 无论如何都会被计算并被覆盖?是不是很像

整合一个一 = 0

一个= 4

即使我们不做a=0,也应该没问题..

最佳答案

重点是您能够提供初始状态,这是一项功能。他们本可以将其实现为默认设置,但通过让您控制张量的分配,您可以节省一些内存(分配一次,每次调用都归零)。

为什么需要设置h?序列到序列模型需要这样做(将输入压缩到一个向量,将此向量用作解码器的隐藏状态)或者您可能希望使初始状态可学习。

关于lstm - Pytorch 隐藏状态 LSTM,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49778001/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com