gpt4 book ai didi

python - LSTM 的 output_dim 如何与下一层的 input_dim 不同?

转载 作者:行者123 更新时间:2023-11-30 08:58:45 25 4
gpt4 key购买 nike

我正在查看这段代码:

model = Sequential()
model.add(LSTM(input_shape = (1,), input_dim=1, output_dim=6, return_sequences=True))
model.add(LSTM(input_shape = (1,), input_dim=1, output_dim=6, return_sequences=False))
model.add(Dense(1))
model.add(Activation('linear'))

如何第一层的输出为 dim=6,然后下一层的 input_dim=1?

编辑

代码是错误的,Keras 只是尽力如实际生成的模型所示(看看模型如何与代码不匹配): enter image description here

最佳答案

这段代码非常困惑,绝对不应该这样写。

在顺序模型中,Keras 仅尊重第一层的 input_shape。所有后续层均使用前一层的输出进行初始化,从而有效地忽略 input_shape 规范。源代码:keras/models.py 。在本例中,它是(None, None, 6)

模型摘要如下所示:

Layer (type)                 Output Shape              Param #   
=================================================================
lstm_1 (LSTM) (None, None, 6) 192
_________________________________________________________________
lstm_2 (LSTM) (None, 6) 312
=================================================================

顺便说一句,keras 对此 LSTM 规范发出警告,因为 input_dim 已弃用:

Update your LSTM call to the Keras 2 API: LSTM(input_shape=(None, 1), return_sequences=True, units=6)

Update your LSTM call to the Keras 2 API: LSTM(input_shape=(None, 1), return_sequences=False, units=6)

关于python - LSTM 的 output_dim 如何与下一层的 input_dim 不同?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49078266/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com