gpt4 book ai didi

r - 使用 caret 包进行交叉验证的最终模型

转载 作者:行者123 更新时间:2023-12-02 17:12:04 24 4
gpt4 key购买 nike

我使用 Caret 包中的随机森林方法对我的数据进行了交叉验证,R 说最终模型是使用 mtry=34 构建的,这是否意味着在最终的随机森林(由交叉验证产生)中只有 34 个变量我数据集中的参数用于树的 split ?

> output
Random Forest

375 samples
592 predictors
2 classes: 'alzheimer', 'control'

No pre-processing
Resampling: Cross-Validated (3 fold)
Summary of sample sizes: 250, 250, 250
Resampling results across tuning parameters:

mtry Accuracy Kappa
2 0.6826667 0.3565541
34 0.7600000 0.5194246
591 0.7173333 0.4343563

Accuracy was used to select the optimal model using the largest value.
The final value used for the model was mtry = 34.

最佳答案

由于您已经使用 caret 包构建了随机森林,所以一个技巧是使用 $finalModel 来获取最终模型的摘要,即使用预定义参数选择的模型(默认值:OOB 精度)。

现在回答你的问题:

从下图中,您可以看到随机森林在每次拆分时从 34 个(我的示例是 31,但您明白了)变量中随机选择。根据您的问题,这不会与仅使用 34 个变量来种植每棵树相混淆。事实上,所有的变量都是在一个足够大的随机森林中使用的;只有在每个节点上,从 34 个变量池中挑选一个变量以减少模型的方差。这使得每棵树彼此更加独立,因此,对大量树进行平均的 yield 更加显着。

enter image description here

每棵树的树生长过程如下(粗体用于强调,并假设您正在使用 caret 中的 randomForest 实现> 或直接来自 randomForest):

  • 对于具有 N x M 维度的数据集(N 表示观察值,M 表示变量数),从原始数据中替换 N 的样本(约三分之二),并将此新样本用作训练集,保留观察值out(~三分之一)用作测试集
  • 指定一个数 m(小于 M)以便在每个节点拆分时随机选择 m 变量M 中的最佳候选者和 m 中的最佳候选者(通过信息增益衡量)用于拆分节点m 是森林生长过程中的常数
  • 每棵树都在没有预先修剪或修剪后的最大范围内生长

很抱歉迟了 2 个月的回答,但我认为这是一个很好的问题,如果没有得到关于 mtry 参数真正作用的更详尽的解释,那就太可惜了。它经常被误解,所以我想我会在这里添加一个答案!

关于r - 使用 caret 包进行交叉验证的最终模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48629289/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com