gpt4 book ai didi

machine-learning - 如何在 Keras 中配置双向 LSTM 的输入形状

转载 作者:行者123 更新时间:2023-11-30 08:37:05 24 4
gpt4 key购买 nike

我面临以下问题。我有大量文档想要使用双向 LSTM 进行编码。每个文档都有不同数量的单词,单词可以被认为是一个时间步长。

在配置双向 LSTM 时,我们需要提供时间序列长度。当我训练模型时,每个批处理的该值都会不同。我应该为 timeseries_size 选择一个数字,这是我允许的最大文档大小吗?任何大于此的文档都不会被编码?

示例配置:

Bidirectional(LSTM(128, return_sequences=True), input_shape=(timeseries_size, encoding_size))

最佳答案

这是一个众所周知的问题,涉及普通 RNN 和双向 RNN。 This discussion on GitHub可能对你有帮助。本质上,以下是最常见的选项:

  • 一个简单的解决方案是设置 timeseries_size作为训练集的最大长度,并用零填充较短的序列。 Example Keras code 。如果训练集恰好同时具有非常长和非常短的输入,那么一个明显的缺点是内存浪费。

  • 将输入样本分成不同长度的桶,例如一个桶length <= 16 ,另一个桶 length <= 32等等。基本上,这意味着为不同的句子集训练几个单独的 LSTM。这种方法(称为分桶)需要更多的努力,但目前被认为是最有效的,并且实际用于最先进的翻译引擎 Tensorflow Neural Machine Translation .

关于machine-learning - 如何在 Keras 中配置双向 LSTM 的输入形状,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49834096/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com