作者热门文章
- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我正在使用 GridSearchCV
执行 RandomForest
的超参数调整,如下所示。
X = np.array(df[features]) #all features
y = np.array(df['gold_standard']) #labels
x_train, x_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)
param_grid = {
'n_estimators': [200, 500],
'max_features': ['auto', 'sqrt', 'log2'],
'max_depth' : [4,5,6,7,8],
'criterion' :['gini', 'entropy']
}
CV_rfc = GridSearchCV(estimator=rfc, param_grid=param_grid, cv= 5)
CV_rfc.fit(x_train, y_train)
print(CV_rfc.best_params_)
我得到的结果如下。
{'criterion': 'gini', 'max_depth': 6, 'max_features': 'auto', 'n_estimators': 200}
然后,我将调整后的参数重新应用到 x_test
,如下所示。
rfc=RandomForestClassifier(random_state=42, criterion ='gini', max_depth= 6, max_features = 'auto', n_estimators = 200, class_weight = 'balanced')
rfc.fit(x_train, y_train)
pred=rfc.predict(x_test)
print(precision_recall_fscore_support(y_test,pred))
print(roc_auc_score(y_test,pred))
但是,我仍然不清楚如何将 GridSearchCV
与 10-fold cross validation
一起使用(即不只是将调整后的参数应用于 x_test
).即如下所示。
kf = StratifiedKFold(n_splits=10)
for fold, (train_index, test_index) in enumerate(kf.split(X, y), 1):
X_train = X[train_index]
y_train = y[train_index]
X_test = X[test_index]
y_test = y[test_index]
或
因为GridSearchCV
使用crossvalidation
我们可以使用所有的X
和y
并得到最好的结果作为最终结果吗结果?
如果需要,我很乐意提供更多详细信息。
最佳答案
在这种情况下,您不应执行网格搜索。
在内部,GridSearchCV
将提供给它的数据集拆分为各种训练 和验证 子集,并且使用提供给它的超参数网格,找到在验证子集上给出最佳分数的单组超参数。
然后,训练-测试拆分的重点是,在此过程完成后,对测试数据执行一个最终评分,到目前为止模型还不知道该评分,以查看是否您的超参数已过拟合验证子集。如果表现良好,下一步就是将模型投入生产/部署。
如果您在交叉验证中执行网格搜索,那么您将拥有多组超参数,每组超参数都在其网格搜索验证子中表现最好-交叉验证拆分的子集。您无法将这些集合组合成一个统一的超参数规范,因此您无法部署您的模型。
关于python - 如何在 python 中使用交叉验证执行 GridSearchCV,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55604668/
我是一名优秀的程序员,十分优秀!