gpt4 book ai didi

python - 为什么经过训练的 Pybrain 网络即使使用输入进行训练也会产生不同的结果

转载 作者:行者123 更新时间:2023-12-01 04:37:58 24 4
gpt4 key购买 nike

我使用 pybrain 训练了一个神经网络。但是,当我使用与训练相同的输入来测试我的网络时,我得到了完全不同的结果。这是我的代码

from pybrain.structure import FeedForwardNetwork
from pybrain.structure import LinearLayer, SigmoidLayer
from pybrain.structure import FullConnection
import numpy as np
from pybrain.datasets import SupervisedDataSet
from pybrain.supervised import BackpropTrainer
from pybrain.tools.xml.networkreader import NetworkReader
from pybrain.tools.xml.networkwriter import NetworkWriter
from pybrain.utilities import percentError

n = FeedForwardNetwork()

inLayer = LinearLayer(2)
hiddenLayer = SigmoidLayer(3)
outLayer = LinearLayer(1)

n.addInputModule(inLayer)
n.addModule(hiddenLayer)
n.addOutputModule(outLayer)

in_to_hidden = FullConnection(inLayer, hiddenLayer)
hidden_to_out = FullConnection(hiddenLayer, outLayer)

n.addConnection(in_to_hidden)
n.addConnection(hidden_to_out)
n.sortModules()

X = np.array(([3,5], [5,1], [10,2]),dtype=float)
Y = np.array(([75], [82], [93]),dtype=float)
X/=np.amax(X, axis=0)
Y/=100

print(n.activate([ 1, 2]))
print(in_to_hidden.params)
ds = SupervisedDataSet(2,1)
for i in range(len(X)):
ds.addSample(X[i],Y[i])

trainer=BackpropTrainer(n,ds, learningrate=0.5, momentum=0.05,verbose=True)
trainer.trainUntilConvergence(ds)
trainer.testOnData(ds, verbose=True)

现在当我想使用代码测试输入时print("测试",n.activate([3,5]))我得到 ('Testing', array([ 1.17809308])) 。对于此输入 n.activate([3,5]),我应该有大约 0.75。所以我不明白为什么会出现这个奇怪的结果

最佳答案

如果我理解正确的话,这只是您必须始终进行的模型验证的一方面。网络通常会寻求最小化所有训练数据的误差,但它不会准确地得到每个结果。您可以通过使用更多隐藏神经元运行更多纪元来提高预测准确性。然而,这样做最终会因过度的灵 active 而导致过度拟合。这是一种平衡行为。

以回归为例。在下面的线性情况下,模型不匹配任何训练(蓝色)数据,但通常捕获蓝色和红色(外部测试)数据的趋势。使用线性方程总是会给我所有数据的错误答案,但它是一个不错的近似器。然后说我将多项式趋势线拟合到数据。现在它有了更大的灵 active ,击中了所有蓝点,但测试数据的错误增加了。

regression

构建网络后,您需要通过该网络重新运行所有数据。然后您可以在 absolute average deviation 上进行验证, MSE , MASE除了 k 折交叉验证等之外。您对错误的容忍度取决于您的应用程序:在工程中,我可能总是需要将错误控制在 5% 以内,任何超过该阈值的情况(将在第二张图中出现)都可能会产生致命的后果。在语言处理中,如果大多数预测非常接近,我可能能够容忍一两个真正的困惑,并尝试以另一种方式捕获它们,所以我可能会采取第二张图。

调整你的学习率和动力可能有助于找到更好的解决方案。

编辑:基于评论

“应该能够识别它”的评论对我来说意味着与神经网络的基础不同的东西。网络中甚至没有模糊的内存概念,它只是使用训练数据来开发一组复杂的规则,以尝试最小化其针对所有数据点的错误。一旦网络被训练,它就不会记住任何训练数据,它只留下将对输入数据执行的乘法步骤的意大利面条。因此,无论您的网络有多好,您都永远无法将您的训练输入反向映射到完全正确的答案。

“融合”的概念并不意味着您拥有良好的网络。网络可能刚刚找到了 local minima错误并放弃学习。这就是为什么您必须始终验证您的模型。如果您对验证结果不满意,可以尝试通过以下方式改进模型:
- 只需重新运行一次即可。网络的随机初始化现在可能会避免局部最小值
- 改变神经元的数量。这会放松或收紧模型的灵 active
- 改变学习率和动量
- 改变学习规则,例如从 Levenberg-Marquardt 交换到贝叶斯正则化

关于python - 为什么经过训练的 Pybrain 网络即使使用输入进行训练也会产生不同的结果,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31394381/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com