gpt4 book ai didi

python - WEKA 和 Scikit-Learn 多层感知器给出了不同的结果

转载 作者:行者123 更新时间:2023-12-01 09:04:40 25 4
gpt4 key购买 nike

大家

我目前正在使用多层感知器进行一项研究。我之前使用 WEKA 运行此程序,但由于各种原因我已迁移到 python 中的 scikit-learn。

我尝试在 WEKA 中重现我的预测结果以进行 scikit-learn,因此我制作了一个具有完全相同的学习率、动量、隐藏层等的精确感知器然而,这两个平台的预测结果有所不同。有人可以给我一些关于此事的解释吗?

我唯一注意到的是 scikit learn 使用 lbfgs、adam 和 sgd 来优化其连接权重,而 WEKA 使用反向传播。但这可能是唯一的原因吗?还是还有其他原因?

致以诚挚的问候

最佳答案

如果你使用不同的优化器训练神经网络,它肯定会给出不同的结果。这种差异可能很小,也可能很大。所有 NN 优化算法都使用反向传播 - 即 LBFGS、Adam 和 SGD 都使用反向传播。另外 - 一般来说 - 训练同一个神经网络两次可能永远不会给你完全相同相同的结果 - 这是因为大多数优化器(至少是值得你花时间的优化器)采取部分随机步骤。

关于python - WEKA 和 Scikit-Learn 多层感知器给出了不同的结果,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52159019/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com