gpt4 book ai didi

machine-learning - Pytorch:为什么batch是默认LSTM中的第二个维度?

转载 作者:行者123 更新时间:2023-12-05 04:55:17 27 4
gpt4 key购买 nike

PyTorch LSTM它写的文档:

batch_first – If True, then the input and output tensors are providedas (batch, seq, feature). Default: False

我想知道为什么他们选择默认批处理维度作为第二个而不是第一个。对我来说,将我的数据成像为 [batch, seq, feature][seq, batch, feature] 更容易。第一个对我来说更直观,第二个则违反直觉。

我在这里想知道这背后是否有任何原因,您是否可以帮助我对此有所了解。

最佳答案

据我所知,没有一个非常合理的答案。如今,它不同于其他框架,正如您所说,形状更直观,例如 Keras,但仅出于与旧版本兼容的原因,更改修改向量维度的默认参数可能会破坏一半如果他们的维护者更新到更新的 PyTorch 版本,模型就在那里。

可能一开始的想法是先设置时间维度来简化随时间的迭代过程,所以你可以做一个

for t, out_t in enumerate(my_tensor)

不必做更少的视觉工作,例如使用 my_tensor[:, i] 访问和必须在 range(time) 中迭代。

关于machine-learning - Pytorch:为什么batch是默认LSTM中的第二个维度?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/65451265/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com