gpt4 book ai didi

python - Keras 拟合 LSTM 在循环中变得更慢

转载 作者:行者123 更新时间:2023-12-01 01:21:52 31 4
gpt4 key购买 nike

我有一个简单的循环,它在每次迭代中都会创建一个 LSTM(具有相同的参数)并将其拟合到相同的数据。问题是迭代过程中需要越来越多的时间。

batch_size = 10
optimizer = optimizers.adam(lr=0.001)
number_unites = 20

for counter_temp in range(1,100):
t0 = time.time()

model = None
model = Sequential()
model.add(LSTM(units=number_unites, batch_input_shape=(None, batch_size, 1), return_sequences=False))
model.add(Dense(1))


model.compile(loss='mean_absolute_error', optimizer=optimizer, metrics=['accuracy'])

model.fit(x_train, y_train, epochs=50, validation_data=(x_train_val, y_train_val), verbose=0)

print(time.time()-t0)

最佳答案

感谢 DanielMöller,问题已解决。我使用 keras.backend.clear_session() 删除“Keras 的图表”。

从 keras.backend 导入clear_session

clear_session()

关于python - Keras 拟合 LSTM 在循环中变得更慢,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53745279/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com