gpt4 book ai didi

python - scikit-learn 中递归特征消除 (RFE) 的排名和分数

转载 作者:太空狗 更新时间:2023-10-30 00:03:13 30 4
gpt4 key购买 nike

我正在尝试理解如何阅读 grid_scores_ranking_ RFECV 中的值.这是文档中的主要示例:

from sklearn.datasets import make_friedman1
from sklearn.feature_selection import RFECV
from sklearn.svm import SVR
X, y = make_friedman1(n_samples=50, n_features=10, random_state=0)
estimator = SVR(kernel="linear")
selector = RFECV(estimator, step=1, cv=5)
selector = selector.fit(X, y)
selector.support_
array([ True, True, True, True, True,
False, False, False, False, False], dtype=bool)

selector.ranking_
array([1, 1, 1, 1, 1, 6, 4, 3, 2, 5])

我应该如何阅读 ranking_grid_scores_越低排名越好吗? (或相反亦然?)。之所以这么问,是因为我注意到具有最高排名值的特征通常在grid_scores_中得分最高。 .

但是,如果有一个 ranking = 1这不应该意味着它被评为组中最好的吗?。这也是文档的内容says :

"Selected (i.e., estimated best) features are assigned rank 1"

但现在让我们使用一些真实数据看下面的示例:

> rfecv.grid_scores_[np.nonzero(rfecv.ranking_ == 1)[0]]
0.0

而具有最高排名的特征具有最高 *分数*。

> rfecv.grid_scores_[np.argmax(rfecv.ranking_ )]
0.997

请注意,在上面的示例中,ranking=1 的特征得分最低

文档中的图:

关于此事,在this figure在文档中,y轴读取 "number of misclassifications" , 但它正在绘制 grid_scores_使用'accuracy' (?) 作为评分函数。不应该 y标签读取 accuracy ? (越高越好)而不是 "number of misclassifications" (越低越好)

最佳答案

你是正确的,低排名值表示一个好的功能,并且 grid_scores_ 属性中的高交叉验证分数也很好,但是你误解了 中的值grid_scores_ 的意思。来自 RFECV 文档

grid_scores_

array of shape [n_subsets_of_features]

The cross-validation scores such that grid_scores_[i] corresponds to the CV score of the i-th subset of features.

因此,grid_scores_ 值不对应于特定特征,它们是特征子集 的交叉验证误差度量。在示例中,具有 5 个特征的子集被证明是信息量最大的集合,因为 grid_scores_ 中的第 5 个值(包含 5 个排名最高的特征的 SVR 模型的 CV 值)是最大的。

您还应注意,由于未明确指定评分指标,因此使用的评分器是 SVR 的默认值,即 R^2,而不是准确性(这仅对分类器有意义)。

关于python - scikit-learn 中递归特征消除 (RFE) 的排名和分数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18243959/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com