- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我已经构建了一个 scikit learn 随机森林分类器模型,并希望根据 feature_importances_ 减少特征数量
from sklearn.ensemble import RandomForestClassifier
model = RandomForestClassifier(5000)
model.fit(data[train], target[train])
model.feature_importances_
如何对模型进行子集化,使其仅包含通过 feature_importances_ 识别的特征(例如前 5 个特征)。
最佳答案
如果您使用的是 0.17,则可以使用 SelectFromModel
from sklearn import datasets
from sklearn.ensemble import RandomForestClassifier
from sklearn.feature_selection import SelectFromModel
iris = datasets.load_iris()
X, y = iris.data, iris.target
model = RandomForestClassifier(5000)
new_model = SelectFromModel(model, threshold=0.5)
来自this example ,有一些方法可以调整threshold
参数。
关于python - 根据feature_importances_减少特征数量,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35255632/
我一直在为 XGBClassifier 的这种怪异行为而烦恼,它应该像 RandomForestClassifier 那样表现得很好: import xgboost as xgb from sklea
我已经通读了几页,但需要有人帮助解释如何进行这项工作。 我正在使用 TPOTRegressor() 来获得最佳管道,但从那里我希望能够绘制它返回的管道的 .feature_importances_:
预测后,feature_importances_(特别是 GradientBoostingClassifier 但可能存在于其他方法中)保存特征重要性。根据文档,越高,该功能越重要。 你知道返回的数字
我有以下代码 xgb = XGBRegressor(booster='gblinear', reg_lambda=0, learning_rate=0.028) print(xgb) xgb.fit(
我正在使用 TransformedTargetRegressor将我的目标转换为日志空间。它是这样完成的 from sklearn.ensemble import GradientBoostingRe
我正在努力从我的 RandomForestRegressor 中提取特征重要性,我得到: AttributeError: 'GridSearchCV' object has no attribute
我通过其 scikit-learn 风格的 Python 接口(interface)调用 xgboost: model = xgboost.XGBRegressor() %time model.fit
我正在使用 OneVsRestClassifier 解决多标签分类问题。我将 RandomForestClassifier 传递给它。 from sklearn.multiclass import O
在我的代码中,它引发运行时错误。在这里,我尝试将 RFE 拟合为回归数据。 from sklearn.feature_selection import RFE from sklearn.svm imp
我正在使用 XGBoost 及其 sklearn 的包装器。 每当我尝试打印 feature_importances_ 时,都会出现以下错误: ValueError: invalid literal
如果我运行一个模型(在本例中称为 clf),我会得到如下所示的输出。如何将其与用于训练分类器的特征输入联系起来? >>> clf.feature_importances_ array([ 0.0162
我正在 LightGBM 中使用 LGBMClassifer 构建二元分类器模型,如下所示: # LightGBM model clf = LGBMClassifier(
我正在尝试为给定的数据集选择重要的特征(或者至少了解哪些特征解释更多的变异性)。为此,我使用 ExtraTreesClassifier 和 GradientBoostingRegressor - 然后
我是一名优秀的程序员,十分优秀!