gpt4 book ai didi

python - 机器学习神经网络: Can Training Error and Testing Error be equal?

转载 作者:行者123 更新时间:2023-11-30 09:09:26 27 4
gpt4 key购买 nike

回归学习率:0.001训练数据与测试数据的比例:50%

我训练了我的神经网络,训练误差和测试误差都从 0.120 开始,然后它都稳定下降并训练它,直到达到 2,105 epoch。最终结果是训练误差和训练损失数据均为 0.006。这算不算过拟合、欠拟合,还是我犯了一个巨大的错误?另外我想问,如果一个拟合良好的模型具有较低的验证误差(测试误差),但仍略高于训练损失,那么它们之间的距离有多远?例如,0.012 = 验证损失(测试损失),0.005 为训练损失。一个好的拟合模型看起来会与该数字相似吗?

最佳答案

对于来自新来源的真正的新测试数据,由于技术来源的变异或群体偏差(也称为批处理效应),人们可能会期望测试误差高于训练误差。

对于用于模型验证目的的随机分割测试数据,根据我的经验,较高的测试误差是过度拟合的标志。然而,实际上并没有硬性规则来说明测试和训练之间的差异有多大是“过度拟合”。

从维基百科查看此图片:https://en.wikipedia.org/wiki/Overfitting#/media/File:Overfitting_svg.svg

您可以看到,简单地最小化训练和测试误差之间的差异并不能产生最佳模型。

具体来说,从您的数字来看,无论训练误差是多少,0.012 的测试误差都非常好。您也许可以做得更好,但当测试误差已经那么低时, yield 将开始变得微不足道。

关于python - 机器学习神经网络: Can Training Error and Testing Error be equal?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43839646/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com