gpt4 book ai didi

python - RFECV() 在 python scikit-learn 中的得分

转载 作者:太空宇宙 更新时间:2023-11-04 10:17:05 50 4
gpt4 key购买 nike

Scikit-learn 库支持递归特征消除(RFE)及其交叉验证版本(RFECV)。 RFECV 对我来说非常有用,它可以选择小特征,但我想知道 RFE 的交叉验证是如何完成的。

RFE 是减少最不重要特征的方法。所以我认为 RFECV 会计算交叉验证分数,逐一删除特征。

但如果使用交叉验证,我认为每次折叠都会选择其他最不重要的特征,因为数据不同。有人知道如何在 RFECV 中删除功能吗?

最佳答案

交叉验证是在特征数量上完成的。每次 CV 迭代都会更新每个已删除特征的分数。

然后,它根据分数选择要保留的 n_features_to_select 个特征,并对完整数据集使用 RFE,仅保留 n_features_to_select 个特征。

来自source :

for n, (train, test) in enumerate(cv):
X_train, y_train = _safe_split(self.estimator, X, y, train)
X_test, y_test = _safe_split(self.estimator, X, y, test, train)

rfe = RFE(estimator=self.estimator,
n_features_to_select=n_features_to_select,
step=self.step, estimator_params=self.estimator_params,
verbose=self.verbose - 1)

rfe._fit(X_train, y_train, lambda estimator, features:
_score(estimator, X_test[:, features], y_test, scorer))
scores.append(np.array(rfe.scores_[::-1]).reshape(1, -1))
scores = np.sum(np.concatenate(scores, 0), 0)
# The index in 'scores' when 'n_features' features are selected
n_feature_index = np.ceil((n_features - n_features_to_select) /
float(self.step))
n_features_to_select = max(n_features_to_select,
n_features - ((n_feature_index -
np.argmax(scores)) *
self.step))
# Re-execute an elimination with best_k over the whole set
rfe = RFE(estimator=self.estimator,
n_features_to_select=n_features_to_select,
step=self.step, estimator_params=self.estimator_params)
rfe.fit(X, y)

关于python - RFECV() 在 python scikit-learn 中的得分,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34703051/

50 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com