作者热门文章
- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
刚接触 sklearn,请保持温柔。使用不同的 roc_auc 评分计算客户流失率,我得到 3 个不同的分数。分数 1 和 3 接近,分数与分数 2 之间存在显着差异。感谢您指导为什么会出现这种差异以及哪一个可能是首选?非常感谢!
from sklearn.model_selection import cross_val_score
from sklearn.metrics import roc_auc_score
param_grid = {'n_estimators': range(10, 510, 100)}
grid_search = GridSearchCV(estimator=RandomForestClassifier(criterion='gini', max_features='auto',
random_state=20), param_grid=param_grid, scoring='roc_auc', n_jobs=4, iid=False, cv=5, verbose=0)
grid_search.fit(self.dataset_train, self.churn_train)
score_roc_auc = np.mean(cross_val_score(grid_search, self.dataset_test, self.churn_test, cv=5, scoring='roc_auc'))
"^^^ SCORE1 - 0.6395751751133528
pred = grid_search.predict(self.dataset_test)
score_roc_auc_2 = roc_auc_score(self.churn_test, pred)
"^^^ SCORE2 - 0.5063261397640454
print("grid best score ", grid_search.best_score_)
"^^^ SCORE3 - 0.6473102070034342
最佳答案
我相信下面的链接可以回答这个问题,它指向 GridSearchCV 中的折叠和较小分割的评分?
Difference in ROC-AUC scores in sklearn RandomForestClassifier vs. auc methods
关于python - sklearn auc 分数 - diffmetrics.roc_auc_score & model_selection.cross_val_score,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49544509/
刚接触 sklearn,请保持温柔。使用不同的 roc_auc 评分计算客户流失率,我得到 3 个不同的分数。分数 1 和 3 接近,分数与分数 2 之间存在显着差异。感谢您指导为什么会出现这种差异以
我是一名优秀的程序员,十分优秀!