- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
这是我在这里遇到的第一个问题,我希望我做得对,
我正在研究 kaggle 上流行的泰坦尼克号数据集,如果你想检查的话,可以查看这个教程 A Data Science Framework: To Achieve 99% Accuracy
第5.2部分,它教授如何网格搜索和调整超参数。在具体说明我的问题之前,让我先与您分享相关代码;
这是使用 GridSearchCV 调整模型:
cv_split = model_selection.ShuffleSplit(n_splits = 10, test_size = .3, train_size = .6, random_state = 0)
#cv_split = model_selection.KFold(n_splits=10, shuffle=False, random_state=None)
param_grid = {'criterion': ['gini', 'entropy'],
'splitter': ['best', 'random'], #splitting methodology; two supported strategies - default is best
'max_depth': [2,4,6,8,10,None], #max depth tree can grow; default is none
'min_samples_split': [2,5,10,.03,.05], #minimum subset size BEFORE new split (fraction is % of total); default is 2
'min_samples_leaf': [1,5,10,.03,.05], #minimum subset size AFTER new split split (fraction is % of total); default is 1
'max_features': [None, 'auto'], #max features to consider when performing split; default none or all
'random_state': [0] }
tune_model = model_selection.GridSearchCV(tree.DecisionTreeClassifier(), param_grid=param_grid, scoring = 'roc_auc', return_train_score = True ,cv = cv_split)
tune_model.fit(data1[data1_x_bin], data1[Target])`
tune_model.best_params_
result is:
{'criterion': 'gini',
'max_depth': 4,
'max_features': None,
'min_samples_leaf': 5,
'min_samples_split': 2,
'random_state': 0,
'splitter': 'best'}
根据代码,训练和测试的准确性在调整时应该是这样的:
print(tune_model.cv_results_['mean_train_score'][tune_model.best_index_], tune_model.cv_results_['mean_test_score'][tune_model.best_index_])
输出:0.8924916598172832 0.8767742588186237
出于好奇,我想使用从 GridSearchCV 获得的参数制作自己的 DecisionTreeClassifier(),
dtree = tree.DecisionTreeClassifier(criterion = 'gini',max_depth = 4,max_features= None, min_samples_leaf= 5, min_samples_split= 2,random_state = 0, splitter ='best')
results = model_selection.cross_validate(dtree, data1[data1_x_bin], data1[Target],return_train_score = True, cv = cv_split)
相同的超参数,相同的交叉验证数据帧,不同的结果。为什么?
print(results['train_score'].mean(), results['test_score'].mean())
0.8387640449438202 0.8227611940298509
那个是tune_model结果:
0.8924916598172832 0.8767742588186237
差距还不小。如果你问我,两个结果应该是相同的,
我不明白有什么不同?有什么不同导致结果不同?
我尝试使用 k-fold 代替 shufflesplit 进行交叉验证,
在这两种情况下,我都尝试了不同的 random_state 值,还尝试了 random_state = None,
结果仍然不同。
有人可以解释一下其中的区别吗?
编辑:顺便说一句,我还想检查测试样本结果:
dtree.fit(data1[data1_x_bin],data1[Target])
dtree.score(test1_x_bin,test1_y), tune_model.score(test1_x_bin,test1_y)
输出:(0.8295964125560538,0.9033059266872216)
相同的模型(决策树分类器),相同的超参数,截然不同的结果
(显然它们不是相同的型号,但我不明白如何以及为什么)
最佳答案
更新
默认cross_validate
默认使用估计器得分方法来评估其性能(您可以通过指定 scoring
的 cross validate
kw 参数来更改它)。 DecisionTreeClassifier
的评分方法类使用准确性作为其得分指标。在 GridSearchCV 内 roc_auc
被用作分数度量。在这两种情况下使用相同的分数度量会产生相同的分数。例如。如果得分指标为 cross_validate
更改为roc_auc
您观察到的模型之间的分数差异消失了。
results = model_selection.cross_validate(dtree, data1[data1_x_bin], data1[Target], scoring = 'roc_auc' ... )
关于分数指标:
评分指标的选择决定了如何评估模型的性能。
假设一个模型应该预测交通灯是否是绿色的(交通灯是绿色 -> 1,交通灯不是绿色 -> 0)。该模型可能会犯两种类型的错误。要么它说交通灯是绿色的,尽管它不是绿色的(假阳性),或者它说交通灯不是绿色的,尽管它是绿色的(假阴性)。在这种情况下,假阴性会很丑陋,但其后果是可以忍受的(有人必须在红绿灯处等待比必要的时间更长的时间)。另一方面,误报将是灾难性的(有人通过红色交通灯,因为它被归类为绿色)。为了评估模型的性能,将选择一个评分指标,该评分指标对误报的权重高于误报(即将它们分类为“更糟糕”的错误)。 准确度在这里是一个不合适的指标,因为假阴性和假阳性会同等程度地降低分数。例如,更适合作为分数度量的是精度。该指标将误报的权重设为 1,将误报的权重设为 0(误报的数量对模型的精度没有影响)。有关假阴性、假阳性、精确度、召回率、准确度等的详细概述,请参阅 here 。 F 分数(另一个分数指标)的 beta 参数可用于设置与假阴性相比应如何对假阳性进行加权(有关更详细的说明,请参阅 here )。有关 roc_auc
的更多信息分数可查 here (它是根据混淆矩阵的不同统计量计算得出的)。
总而言之,这意味着同一模型相对于一个分数指标可以表现得很好,而相对于另一个分数指标则表现不佳。在您描述的情况下,GridSearchCV 优化的决策树和您随后实例化的树是相同的模型。两者产生相同的精度或相同roc_auc
分数。您使用哪个评分指标来比较不同模型在数据集上的性能取决于您认为对模型性能特别重要的标准。如果唯一的标准是有多少实例被正确分类,那么准确性可能是一个不错的选择。
旧想法(见评论):
您为 dtree
指定了一个随机状态(dtree = tree.DecisionTreeClassifier(random_state = 0 ...
),但对于 GridSearchCV 中使用的决策树没有。在那里使用相同的随机状态,让我知道这是否解决了问题。
tune_model = model_selection.GridSearchCV(tree.DecisionTreeClassifier(random_state=0), ...)
关于python - 为什么 GridSearchCV 模型结果与我手动调整的模型不同?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59346463/
考虑以下网格搜索: grid = GridSearchCV(clf, parameters, n_jobs =-1, iid=True, cv =5) grid_fit = grid.fit(X_tr
我正在做一个 GridSearchCV,我已经监控了核心的百分比,并且我看到当我运行一个简单的神经网络时,4 个核心具有相同的百分比,但是当网格搜索 cv (n_jobs = 1) 开始时在情节的线条
我在带有 RBF 内核的 SVM 上进行了网格搜索 + 交叉验证,以使用类 GridShearchCV 找到参数 C 和 gamma 的最佳值。现在我想以表格格式获得结果,例如 C/gamma 1e-
我正在尝试为 sklearn 的 GridSearchCV 结果生成热图。我喜欢的东西sklearn-evaluation是因为生成热图真的很容易。但是,我遇到了一个问题。当我将参数设为 None 时
我想提高这个的参数GridSearchCV 对于 随机森林回归器 . def Grid_Search_CV_RFR(X_train, y_train): from sklearn.model_
我正在尝试设置 GridSearchCV 的实例来确定哪一组超参数将产生最低的平均绝对误差。 This scikit documentation表示分数指标可以在创建 GridSearchCV 时传递
当使用网格搜索在 python 中使用此函数 GridSearchCV() 进行分类器时,假设我们有一个参数区间来调整形式 1 到 100,我们如何能够指定它(1:100 不起作用)? p> 最佳答案
我是机器学习的新手,并且一直坚持这个。 当我尝试在线性模型中实现多项式回归时,例如使用多个次数的多项式范围(1,10)并获得不同的 MSE。我实际上使用 GridsearchCV 方法来查找多项式的最
我想在一系列 alpha(拉普拉斯平滑参数)上使用 GridSearchCV 来检查哪个为伯努利朴素贝叶斯模型提供了最佳准确度。 def binarize_pixels(data, threshold
使用 sklearn 在随机森林分类器上运行网格搜索。这个运行的时间比我想象的要长,我正在尝试估计这个过程还剩多少时间。我认为它的总拟合次数是 3*3*3*3*5 = 405。 clf = Rando
我正在尝试使用网格搜索找出要在 PCA 中使用的 n_components 的最佳值: from sklearn.decomposition import PCA from sklearn.grid_
我正在尝试 GridsearchCV 但我希望在 param grid 中有一些异常(exception)。这是我的网格搜索代码: from sklearn.model_selection impor
我很难找出 GridSearchCV 中的参数 return_train_score。来自docs : return_train_score : boolean, optional If
我必须进行多类分类 (3)。我使用 GridSearchCV 为我的分类器搜索最佳参数。 但我有一个不平衡的 x_train(和 x_test):0 有 3079 个实例,1 有 12 个实例,3 有
有没有办法访问在 GridSearchCV 过程中计算的预测值? 我希望能够根据实际值(来自测试/验证集)绘制预测的 y 值。 网格搜索完成后,我可以使用 将其与其他一些数据相匹配 ypred =
我正在使用GridsearchCV来调整超参数,现在我想在训练和验证步骤中进行最小-最大Normalization(StandardScaler())。但我认为我不能做到这一点。 问题是: 如果我对整
我正在使用 scikit learn 进行多标签分类。我使用 RandomForestClassifier 作为基本估计器。我想使用 GridSearchCV 优化每个标签的参数。目前我正在按以下方式
好的,我只想说,我对 SciKit-Learn 和数据科学完全陌生。但这是问题所在,也是我目前对该问题的研究。代码在底部。 总结 我正尝试使用 BernoulliRBM 进行类型识别(例如数字),并尝
我正在使用 GridSearchCV ,并且在每次迭代之后,我想将 clf.cv_results_ 属性保存到一个文件中(以防进程在中间崩溃)。 我尝试寻找解决方案,但就是想不通。 我们将不胜感激。
我正在尝试自学如何在基本的多层神经网络中对神经元的数量进行网格搜索。我正在使用 Python 的 GridSearchCV 和 KerasClasifier 以及 Keras。下面的代码适用于其他数据
我是一名优秀的程序员,十分优秀!