- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在寻找随机森林的应用程序,我在 Kaggle 上发现了以下知识竞赛:
https://www.kaggle.com/c/forest-cover-type-prediction .
遵循以下建议
https://www.kaggle.com/c/forest-cover-type-prediction/forums/t/8182/first-try-with-random-forests-scikit-learn ,
我用过 sklearn
建立一个有 500 棵树的随机森林。
.oob_score_
约为 2%,但坚持集的得分约为 75%。
只有七类要分类,所以 2% 真的很低。当我交叉验证时,我的分数也一直接近 75%。
谁能解释 之间的差异.oob_score_
和坚持/交叉验证的分数?我希望它们是相似的。
这里有一个类似的问题:
https://stats.stackexchange.com/questions/95818/what-is-a-good-oob-score-for-random-forests
编辑:我认为这也可能是一个错误。
该代码由我发布的第二个链接中的原始海报提供。唯一的变化是你必须设置 oob_score = True
当您构建随机森林时。
我没有保存我所做的交叉验证测试,但如果人们需要查看它,我可以重做。
最佳答案
问:谁能解释一下这种差异...
答: sklearn.ensemble.RandomForestClassifier
对象并观察到 .oob_score_
属性值不是与错误相关的问题。
一、 RandomForest
基于预测器 { Classifier | Regressor }
属于所谓的集成方法的相当特定的角落,所以请注意,典型 方法,包括交叉验证,以同样的方式工作 至于其他 AI/ML 学习者。
随机森林 "inner"-logic works heavily with RANDOM-PROCESS , 其中样本 ( DataSET X
) 已知 y == { labels
(用于分类器)| targets
(对于回归器)}
, 在整个森林代中 split ,其中树木得到 自举 通过 RANDOMLY 将 DataSET 分成树可以看到的部分和树将看不到的部分(从而形成内部 oob-subSET )。
除了对过拟合等人的敏感性的其他影响之外,随机森林 ensemble 不需要进行交叉验证,因为它在设计上不会过度拟合。许多论文还有 Breiman's (伯克利)经验证明为这种说法提供了支持,因为他们提供了证据,即 CV-ed 预测器将具有相同的 .oob_score_
import sklearn.ensemble
aRF_PREDICTOR = sklearn.ensemble.RandomForestRegressor( n_estimators = 10, # The number of trees in the forest.
criterion = 'mse', # { Regressor: 'mse' | Classifier: 'gini' }
max_depth = None,
min_samples_split = 2,
min_samples_leaf = 1,
min_weight_fraction_leaf = 0.0,
max_features = 'auto',
max_leaf_nodes = None,
bootstrap = True,
oob_score = False, # SET True to get inner-CrossValidation-alike .oob_score_ attribute calculated right during Training-phase on the whole DataSET
n_jobs = 1, # { 1 | n-cores | -1 == all-cores }
random_state = None,
verbose = 0,
warm_start = False
)
aRF_PREDICTOR.estimators_ # aList of <DecisionTreeRegressor> The collection of fitted sub-estimators.
aRF_PREDICTOR.feature_importances_ # array of shape = [n_features] The feature importances (the higher, the more important the feature).
aRF_PREDICTOR.oob_score_ # float Score of the training dataset obtained using an out-of-bag estimate.
aRF_PREDICTOR.oob_prediction_ # array of shape = [n_samples] Prediction computed with out-of-bag estimate on the training set.
aRF_PREDICTOR.apply( X ) # Apply trees in the forest to X, return leaf indices.
aRF_PREDICTOR.fit( X, y[, sample_weight] ) # Build a forest of trees from the training set (X, y).
aRF_PREDICTOR.fit_transform( X[, y] ) # Fit to data, then transform it.
aRF_PREDICTOR.get_params( [deep] ) # Get parameters for this estimator.
aRF_PREDICTOR.predict( X ) # Predict regression target for X.
aRF_PREDICTOR.score( X, y[, sample_weight] ) # Returns the coefficient of determination R^2 of the prediction.
aRF_PREDICTOR.set_params( **params ) # Set the parameters of this estimator.
aRF_PREDICTOR.transform( X[, threshold] ) # Reduce X to its most important features.
还应告知,默认值不是最好的,在任何情况下都不是最好的。关注问题域,提出一套合理的
ensemble
参数化,然后再进一步。
X
),但是,一旦您不需要与偏差或过度拟合作斗争,处理集成的成本仍然足够。
那太好了,不是吗?
numpy.random
&
.set_params( random_state = ... )
到 RANDOM-PROCESS 之前的已知状态(嵌入到 RandomForest 集成的每个引导中)。这样做,人们可能会观察到
的“降噪”进程。 RandomForest
基于更好的方向的预测器
.oob_score_
而是由于更多集成成员(
n_estimators
)引入的真正改进的预测能力,较少约束的树构造(
max_depth
,
max_leaf_nodes
等),而不仅仅是“运气好”在如何拆分数据集的随机过程中...
.oob_score_
下降大约 0.51 - 0.53 你的合奏是
比 RANDOM-GUESS 好 1% - 3%
aRF_PREDICTOR.oob_score_ Out[79]: 0.638801 # n_estimators = 10
aRF_PREDICTOR.oob_score_ Out[89]: 0.789612 # n_estimators = 100
关于scikit-learn - sklearn 随机森林 : . oob_score_ 太低?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24737304/
我知道有几个类似的问题被问到,但我的问题仍然没有得到解答。 问题来了。我使用命令 python3 -m pip3 install -U scikit-learn 来安装 sklearn、numpy 和
_train_weather.values : [[ 0.61818182 0.81645199 0.6679803 ..., 0. 0. 1.
如果我有一个数据集X及其标签Y,那么我将其分为训练集和测试集,scle为0.2,并使用随机种子进行洗牌: 11 >>>X.shape (10000, 50,50) train_data, test_d
首先我查看了所有相关问题。给出了非常相似的问题。 所以我遵循了链接中的建议,但没有一个对我有用。 Data Conversion Error while applying a function to
这里有两种标准化方法: 1:这个在数据预处理中使用:sklearn.preprocessing.normalize(X,norm='l2') 2:分类方法中使用另一种方法:sklearn.svm.Li
所以刚看了一个教程,作者不需要import sklearn使用时 predict anaconda 环境中pickled 模型的功能(安装了sklearn)。 我试图在 Google Colab 中重
我想评估我的机器学习模型。我使用 roc_auc_score() 计算了 ROC 曲线下的面积,并使用 sklearn 的 plot_roc_curve() 函数绘制了 ROC 曲线。在第二个函数中,
我一直在寻找此信息,但在任何地方都找不到,所以这是我的镜头。 我是Python 2.7的初学者,我学习了一个模型,感谢cPickle我保存了它,但现在我想知道是否可以从另一个设备(没有sklearn库
>>> import sklearn.model_selection.train_test_split Traceback (most recent call last): File "", li
在阅读有关使用 python 的 LinearDiscriminantAnalysis 的过程中,我有两种不同的方法来实现它,可在此处获得, http://scikit-learn.org/stabl
我正在使用 sklearn,我注意到 sklearn.metrics.plot_confusion_matrix 的参数和 sklearn.metrics.confusion_matrix不一致。 p
我正在构建一个多标签文本分类程序,我正在尝试使用 OneVsRestClassifier+XGBClassifier 对文本进行分类。最初,我使用 Sklearn 的 Tf-Idf 矢量化来矢量化文本
我想看看模型是否收敛于我的交叉验证。我如何增加或减少 sklearn.svm.SVC 中的时代? 目前: SVM_Model = SVC(gamma='auto') SVM_Model.fit(X_t
有人可以帮助我吗?我很难知道它们之间的区别 from sklearn.model_selection import train_test_split from sklearn.cross_valida
我需要提取在 sklearn.ensemble.BaggingClassifier 中训练的每个模型的概率。这样做的原因是为了估计 XGBoostClassifier 模型的不确定性。 为此,我创建了
无法使用 scikit-learn 0.19.1 导入 sklearn.qda 和 sklearn.lda 我得到: 导入错误:没有名为“sklearn.qda”的模块 导入错误:没有名为“sklea
我正在尝试在 google cloud ai 平台上创建一个版本,但找不到 impute 模块 No module named 'sklearn.impute._base; 'sklearn.impu
我在 PyQt5 中编写了一个 GUI,其中包括以下行 from sklearn.ensemble import RandomForestClassifier 。 遵循this answer中的建议,
我正在做一个 Kaggle 比赛,需要输入一些缺失的数据。我安装了最新的Anaconda(4.5.4)具有所有相关依赖项(即 scikit-learn (0.19.1) )。 当我尝试导入模块时,出现
在安装了所需的模块后,我正在尝试将imblearn导入到我的Python笔记本中。但是,我收到以下错误:。。附加信息:我使用的是一个用Visual Studio代码编写的虚拟环境。。我已经确定venv
我是一名优秀的程序员,十分优秀!