gpt4 book ai didi

machine-learning - 关于 keras 示例 pretrained_word_embeddings 的问题

转载 作者:行者123 更新时间:2023-11-30 09:00:20 26 4
gpt4 key购买 nike

我有几个关于 Keras 示例的问题 pretrained_word_embeddings提高对其工作原理的理解。

  1. 在这样的模型中使用dropout层是否合理?

  2. 最后一个MaxPooling1D层每次都必须覆盖所有输出形状?在原始模型中,最后一个卷积层输出为 35,我们将 maxpool 设置为相同的 35 值。

  3. 如果说增加值 128(内核数)会提高准确性,我对吗?

  4. 添加额外的转换层来提高准确性是否有意义?即使它会减少模型训练阶段。

谢谢!

最佳答案

所以基本上你的问题有一个简单的答案 - 你需要测试它:

  1. 添加dropout通常是一件好事。它引入了合理的随机化和正则化量。缺点是您需要设置其参数的正确值 - 有时可能需要一段时间。
  2. 在我看来 - 最后一个池化层中 MaxPooling1D 的值是以这种方式设置的,以便减少下一层输入的维度。人们可以检查是否例如像上一层中的数字的一半这样的值(在所呈现的情况下 - 例如 18) - 这只会使下一层的输入大小加倍 - 可以带来任何改进。
  3. 这很难说 - 如果你拥有少量具有严格结构的数据 - 太多参数可能会严重损害您的训练。最好的方法是在网格随机搜索范例中测试不同的参数值。据信random search做得更好:)

关于machine-learning - 关于 keras 示例 pretrained_word_embeddings 的问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42433443/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com