- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
>> clf.feature_importances_ array([ 0.0162-6ren">
如果我运行一个模型(在本例中称为 clf),我会得到如下所示的输出。如何将其与用于训练分类器的特征输入联系起来?
>>> clf.feature_importances_
array([ 0.01621506, 0.18275428, 0.09963659,... ])
最佳答案
如评论中所述,顺序或特征重要性似乎是“x”输入变量的顺序(我已将其从 Pandas 转换为 Python native 数据结构)。我使用此代码生成如下所示的类型列表:(feature_name, feature_importance)。
zip(x.columns, clf.feature_importances_)
关于python - "feature_importances_"在 Scikit-learn 的 RandomForestRegressor 中是如何排序的,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23900080/
我一直在为 XGBClassifier 的这种怪异行为而烦恼,它应该像 RandomForestClassifier 那样表现得很好: import xgboost as xgb from sklea
我已经通读了几页,但需要有人帮助解释如何进行这项工作。 我正在使用 TPOTRegressor() 来获得最佳管道,但从那里我希望能够绘制它返回的管道的 .feature_importances_:
预测后,feature_importances_(特别是 GradientBoostingClassifier 但可能存在于其他方法中)保存特征重要性。根据文档,越高,该功能越重要。 你知道返回的数字
我有以下代码 xgb = XGBRegressor(booster='gblinear', reg_lambda=0, learning_rate=0.028) print(xgb) xgb.fit(
我正在使用 TransformedTargetRegressor将我的目标转换为日志空间。它是这样完成的 from sklearn.ensemble import GradientBoostingRe
我正在努力从我的 RandomForestRegressor 中提取特征重要性,我得到: AttributeError: 'GridSearchCV' object has no attribute
我通过其 scikit-learn 风格的 Python 接口(interface)调用 xgboost: model = xgboost.XGBRegressor() %time model.fit
我正在使用 OneVsRestClassifier 解决多标签分类问题。我将 RandomForestClassifier 传递给它。 from sklearn.multiclass import O
在我的代码中,它引发运行时错误。在这里,我尝试将 RFE 拟合为回归数据。 from sklearn.feature_selection import RFE from sklearn.svm imp
我正在使用 XGBoost 及其 sklearn 的包装器。 每当我尝试打印 feature_importances_ 时,都会出现以下错误: ValueError: invalid literal
如果我运行一个模型(在本例中称为 clf),我会得到如下所示的输出。如何将其与用于训练分类器的特征输入联系起来? >>> clf.feature_importances_ array([ 0.0162
我正在 LightGBM 中使用 LGBMClassifer 构建二元分类器模型,如下所示: # LightGBM model clf = LGBMClassifier(
我正在尝试为给定的数据集选择重要的特征(或者至少了解哪些特征解释更多的变异性)。为此,我使用 ExtraTreesClassifier 和 GradientBoostingRegressor - 然后
我是一名优秀的程序员,十分优秀!