gpt4 book ai didi

python - SciKit Learn 中 MLP 回归器的隐藏层大小是如何确定的?

转载 作者:行者123 更新时间:2023-11-30 09:31:30 24 4
gpt4 key购买 nike

假设我正在使用以下代码创建一个神经网络:

from sklearn.neural_network import MLPRegressor

model = MLPRegressor(
hidden_layer_sizes=(100,),
activation='identity'
)
model.fit(X_train, y_train)

对于hidden_​​layer_sizes,我只是将其设置为默认值。但是,我不太明白它是如何工作的。我的定义中隐藏层的数量是多少?是100吗?

最佳答案

来自docs :

hidden_layer_sizes : tuple, length = n_layers - 2, default (100,)

The ith element represents the number of neurons in the ith hidden layer.

它是length = n_layers - 2,因为你的隐藏层的数量是总层数n_layers减去你的输入层的1,减去你的层的1输出层。

在您的(默认)情况下 (100,),这意味着一个包含 100 个单元(神经元)的隐藏层。

对于 3 个隐藏层,例如分别有 100、50 和 25 个单元,则为

hidden_layer_sizes = (100, 50, 25)

请参阅example in the docs (它适用于 MLPClassifier,但逻辑是相同的)。

关于python - SciKit Learn 中 MLP 回归器的隐藏层大小是如何确定的?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55786860/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com