gpt4 book ai didi

machine-learning - 如何训练和微调完全无监督的深度神经网络?

转载 作者:行者123 更新时间:2023-11-30 08:40:00 25 4
gpt4 key购买 nike

在场景 1 中,我有一个多层稀疏自动编码器,它尝试重现我的输入,因此我的所有层都与随机启动的权重一起训练。如果没有监督层,在我的数据上,它不会学到任何相关信息(代码工作正常,经过验证,因为我已经在许多其他深度神经网络问题中使用了它)

在场景 2 中,我简单地以类似于深度学习的贪婪分层训练方式训练多个自动编码器(但最终没有监督步骤),每个层都在前一个隐藏层的输出上自动编码器。他们现在将分别学习一些模式(正如我从可视化权重中看到的那样),但并不出色,正如我期望从单层 AE 中学到的那样。

因此,我决定尝试一下,现在连接到 1 个多层 AE 的预训练层是否可以比随机初始化版本表现得更好。正如您所看到的,这与深度神经网络中微调步骤的想法相同。

但是在我的微调过程中,所有层的神经元并没有得到改善,而是似乎很快收敛到一个完全相同的模式,最终什么也没学到。

问题:训练完全无监督的多层重建神经网络的最佳配置是什么?首先逐层进行,然后进行某种微调?为什么我的配置不起作用?

最佳答案

经过一些测试,我想出了一种方法,似乎给出了非常好的结果,并且正如您所期望的“微调”,它提高了所有层的性能:

就像通常一样,在贪婪的逐层学习阶段,每个新的自动编码器都会尝试重建前一个自动编码器隐藏层的激活。然而,最后一个自动编码器(这将是微调过程中多层自动编码器的最后一层)是不同的,这个自动编码器将使用前一层的激活并尝试重建“全局”输入(即原始输入)被馈送到第一层)。

这样,当我连接所有层并将它们一起训练时,多层自动编码器将在最终输出中真正重建原始图像。我发现即使没有监督步骤,所学的功能也有了巨大的进步。

我不知道这是否应该以某种方式与标准实现相对应,但我以前没有在任何地方发现过这个技巧。

关于machine-learning - 如何训练和微调完全无监督的深度神经网络?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35085998/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com