gpt4 book ai didi

python - 嵌套交叉验证 : How does cross_validate handle GridSearchCV as its input estimator?

转载 作者:太空宇宙 更新时间:2023-11-03 15:35:35 28 4
gpt4 key购买 nike

以下代码将 cross_validateGridSearchCV 相结合,对 iris 数据集上的 SVC 执行嵌套交叉验证。

(以下文档页面的修改示例: https://scikit-learn.org/stable/auto_examples/model_selection/plot_nested_cross_validation_iris.html#sphx-glr-auto-examples-model-selection-plot-nested-cross-validation-iris-py .)


from sklearn.datasets import load_iris
from sklearn.svm import SVC
from sklearn.model_selection import GridSearchCV, cross_validate, KFold
import numpy as np
np.set_printoptions(precision=2)

# Load the dataset
iris = load_iris()
X_iris = iris.data
y_iris = iris.target

# Set up possible values of parameters to optimize over
p_grid = {"C": [1, 10],
"gamma": [.01, .1]}

# We will use a Support Vector Classifier with "rbf" kernel
svm = SVC(kernel="rbf")

# Choose techniques for the inner and outer loop of nested cross-validation
inner_cv = KFold(n_splits=5, shuffle=True, random_state=1)
outer_cv = KFold(n_splits=4, shuffle=True, random_state=1)

# Perform nested cross-validation
clf = GridSearchCV(estimator=svm, param_grid=p_grid, cv=inner_cv, iid=False)
clf.fit(X_iris, y_iris)
best_estimator = clf.best_estimator_

cv_dic = cross_validate(clf, X_iris, y_iris, cv=outer_cv, scoring=['accuracy'], return_estimator=False, return_train_score=True)
mean_val_score = cv_dic['test_accuracy'].mean()

print('nested_train_scores: ', cv_dic['train_accuracy'])
print('nested_val_scores: ', cv_dic['test_accuracy'])
print('mean score: {0:.2f}'.format(mean_val_score))

cross_validate 将每个折叠中的数据集拆分为训练 和测试集。在每个折叠中,然后根据与折叠关联的训练集训练输入估计器。这里输入的估计器是clf,一个参数化的GridSearchCV估计器,即再次交叉验证自己的估计器。

我对整个事情有三个问题:

  1. 如果 clf 被用作 cross_validate 的估计器,它是否(在 GridSearchCV 交叉验证过程中)拆分上面提到的将训练集分成子训练集和验证集以确定最佳超参数组合?
  2. 在通过 GridSearchCV 测试的所有模型中,cross_validate 是否仅验证存储在 best_estimator_ 属性中的模型?
  3. cross_validate 是否训练模型(如果是,为什么?)或者存储在 best_estimator_ 中的模型是否直接通过测试集验证?

为了更清楚地说明问题的含义,这里举例说明我目前如何想象双交叉验证。

enter image description here

最佳答案

If clf is used as the estimator for cross_validate, does it split the above mentioned training set into a subtraining set and a validation set in order to determine the best hyper parameter combination?

是的,如您所见here at Line 230训练集再次分成子训练集和验证集(特别是在 line 240 )。

更新 是的,当您将 GridSearchCV 分类器传递到 cross-validate 时,它会再次将训练集拆分为测试和训练放。这是 a link更详细地描述这一点。您的图表和假设是正确的。

Out of all models tested via GridSearchCV, does cross_validate train & validate only the model stored in the variable best_estimator?

是的,从答案中可以看出herehere ,GridSearchCV 在您的情况下返回 best_estimator(因为在您的情况下 refit 参数默认为 True。)但是,必须再次训练这个最佳估计器

Does cross_validate train a model at all (if so, why?) or is the model stored in best_estimator_ validated directly via the test set?

根据您的第三个也是最后一个问题,是的,如果 return_estimator 设置为 True,它会训练一个估计器并返回它。参见 this line .这是有道理的,因为如果不首先训练估算器,还应该如何返回分数?

更新再次训练模型的原因是因为交叉验证的默认用例不假设您给出具有最佳参数的最佳分类器。具体来说,在这种情况下,您从 GridSearchCV 发送一个分类器,但如果您发送任何未经训练的分类器,它应该是经过训练的。我在这里要说的是,是的,在您的情况下,它不应该再次训练它,因为您已经在使用 GridSearchCV 并使用最佳估算器进行交叉验证。但是,cross-validate 无法知道这一点,因此,它假设您发送的是未优化或未经训练的估计器,因此它必须再次训练并返回分数同样。

关于python - 嵌套交叉验证 : How does cross_validate handle GridSearchCV as its input estimator?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55030190/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com