作者热门文章
- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
回归学习率:0.001训练数据与测试数据的比例:50%
我训练了我的神经网络,训练误差和测试误差都从 0.120 开始,然后它都稳定下降并训练它,直到达到 2,105 epoch。最终结果是训练误差和训练损失数据均为 0.006。这算不算过拟合、欠拟合,还是我犯了一个巨大的错误?另外我想问,如果一个拟合良好的模型具有较低的验证误差(测试误差),但仍略高于训练损失,那么它们之间的距离有多远?例如,0.012 = 验证损失(测试损失),0.005 为训练损失。一个好的拟合模型看起来会与该数字相似吗?
最佳答案
对于来自新来源的真正的新测试数据,由于技术来源的变异或群体偏差(也称为批处理效应),人们可能会期望测试误差高于训练误差。
对于用于模型验证目的的随机分割测试数据,根据我的经验,较高的测试误差是过度拟合的标志。然而,实际上并没有硬性规则来说明测试和训练之间的差异有多大是“过度拟合”。
从维基百科查看此图片:https://en.wikipedia.org/wiki/Overfitting#/media/File:Overfitting_svg.svg
您可以看到,简单地最小化训练和测试误差之间的差异并不能产生最佳模型。
具体来说,从您的数字来看,无论训练误差是多少,0.012 的测试误差都非常好。您也许可以做得更好,但当测试误差已经那么低时, yield 将开始变得微不足道。
关于python - 机器学习神经网络: Can Training Error and Testing Error be equal?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43839646/
我是一名优秀的程序员,十分优秀!