gpt4 book ai didi

Keras:LSTM 中 input_dim 和 input_length 的区别

转载 作者:行者123 更新时间:2023-12-04 08:41:32 31 4
gpt4 key购买 nike

在构建 LSTM 时,我们需要通过以下方式提供输入形状信息:

input_shape = () # a tuple

或者,通过:
input_length = () # an integer
input_dim = () # an integer

我对这两个数量感到有些困惑。他们在暗示什么?

另外, input_dim 是所谓的时间步长吗?

最佳答案

我会尽量简化输入形状参数:
对于 LSTM(或一般用于 RNN),输入形状可以通过以下方式提供:

  • input_shape 关键字参数:input_shape = (input_length, input_dim)其中 input_length = 序列的长度和 input_dim = 特征/变量的数量。如果未提供值,则表示可以预期任何正整数。在这里您没有提到批量大小,即训练期间权重更新的观察次数。例如
    input_length = 50(这是你的序列长度)
    input_dim = 10(这是你在数据中输入特征的数量)
    model.add(LSTM(16, input_shape = (50,10)))
  • 使用单独的 input_dim 和 input_length 参数
    在这里,您分别指定 input_dim 即数据中的特征数和 input_length 即数据中单个观察的序列长度。例如model.add(LSTM(16, input_length= 50, input_dim =10)) .这相当于上面描述的方式
  • 最后,您可以通过 batch_input_size 参数指定批处理的大小(上面未指定)。如果 LSTM 是有状态的,则必须预先指定批处理大小。 batch_input_size = (batch_size,input_length, input_dim)
  • model.add(LSTM(16,batch_input_size = (None,50,10)))相当于上面两个
    model.add(LSTM(16,batch_input_size = (32,50,10)))批量大小为 32

    关于Keras:LSTM 中 input_dim 和 input_length 的区别,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40644372/

    31 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com