gpt4 book ai didi

python - 交叉验证网格搜索背后的理论

转载 作者:太空宇宙 更新时间:2023-11-03 21:39:25 25 4
gpt4 key购买 nike

感谢堆栈溢出的帮助,我成功地为我的决策树模型实现了带有交叉验证的网格搜索。

dtc = DecisionTreeClassifier()

parameter_grid = {'splitter': ['best', 'random'],
'min_samples_split': [15, 16, 17, 18, 19,20, 21, 22, 23, 24, 25,],
'min_samples_leaf': [1, 2, 3, 4, 5, 6, 7, 8, 9, 10,],
'criterion': ['gini', 'entropy'],
'random_state': [0]}

cross_validation = StratifiedKFold(n_splits=10)

grid_search = GridSearchCV(dtc, param_grid=parameter_grid, cv=cross_validation)

grid_search.fit(x, y)

我的问题涉及其背后的理论。

我知道 k 折交叉验证将我的整个数据集拆分为 k 个训练数据集和相应的验证数据集。

然后,我假设我的代码会执行类似的操作:

  1. 对 k 折叠的每个训练数据集应用网格搜索 k 次。

  2. 每个k折叠的网格搜索的最佳参数应用于相应的验证数据集。

  3. 针对 k 折叠的每个验证数据集计算验证误差

到目前为止这是否正确?

使用 grid_search.best_score_ 和 grid_search.best_params_ 获得的值是什么?这些是步骤 3 中的最佳验证错误 (grid_search.best_score_) 以及网格搜索的相应最佳值 (grid_search.best_params_) 还是某个平均值?

非常欢迎任何帮助或澄清!

最佳答案

对于网格搜索的每种可能的组合(在您的情况下为 2*11*10*2*1=440),训练数据集被分割 k 次,并且 k 上的平均误差正在计算每个超参数组合的验证集。平均误差最低的组合是 grid_search.best_params_

例如:

{'splitter': 'best', 
'min_samples_split': 20,
'min_samples_leaf': 9,
'criterion': 'entropy',
'random_state': 0}

关于python - 交叉验证网格搜索背后的理论,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52995942/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com