gpt4 book ai didi

machine-learning - Tensorflow Inception 模型再训练,为什么不将瓶颈反馈给 SVM?

转载 作者:行者123 更新时间:2023-11-30 09:06:11 28 4
gpt4 key购买 nike

在 inception 模型上进行“迁移学习”或“再训练”的常见方法是从模型中取出瓶颈层,将瓶颈张量压缩为平坦的 2048 个神经元层,然后添加一个带有数字的最终层与要分类的类别数量相匹配的神经元(以及最终的 softmax)。

我的问题是:为什么不将这些高度抽象的 2048 个特征提供给 SVM,而不是将这个瓶颈层训练为神经元网络,这可能会取得更好的结果?

非常感谢!

最佳答案

当今的趋势是执行端到端学习,而不是让模型学习一些抽象表示,然后将该表示提供给其他模型(例如 SVM)。

这种趋势背后的直觉如下:如果优化模型 A在某些子任务上S1和模型B在另一个子任务上S2 ,两个模型都会收敛到某个局部最优解。与通过优化完整任务 S = (S1 + S2) 获得的最优值相比,两个局部最优值的组合预计不是最优的。 。端到端优化模型时,您可以一起调整模型的所有部分,以更好地解决任务。但是,当您拆分模型并分别训练其不同部分时,您会破坏各部分之间的直接信号,从而使提高模型的输出变得更加困难 A用于改进模型结果的特定任务 B因为您没有直接的方法来同时优化这两个模型。

你的建议在过去很流行。例如原来的RCNN Girshick 的论文使用预训练的卷积神经网络来提取特征,然后将其输入 SVM 进行分类。

但是,这种方法在 R-CNN 的后续迭代中被放弃,Fast RCNN ,SVM 步骤被 softmax 取代。在Fast R-CNN的表8第5.4节中,作者将相同的模型与SVM和softmax进行了比较,他们得出的结论是softmax稍微优于SVM版本。

关于machine-learning - Tensorflow Inception 模型再训练,为什么不将瓶颈反馈给 SVM?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51248920/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com