gpt4 book ai didi

随机森林回归 - 累积 MSE?

转载 作者:行者123 更新时间:2023-11-30 09:16:19 28 4
gpt4 key购买 nike

我是随机森林新手,我有一个关于回归的问题。我正在使用 R 包 randomForests 来计算 RF 模型。

我的最终目标是选择对预测连续性状很重要的变量集,因此我正在计算一个模型,然后删除准确度平均下降最低的变量,然后计算一个新模型,依此类推。这适用于 RF 分类,我使用来自预测(训练集)、开发和验证数据集的 OOB 误差来比较模型。现在,通过回归,我想比较基于解释的 %variation 和 MSE 的模型。

我正在评估 MSE 和 %var 解释的结果,并且在使用 model$predicted 的预测手动计算时得到完全相同的结果。但是,当我执行 model$mse 时,显示的值对应于最后计算的树的 MSE 值,并且 % var 解释时也会发生同样的情况。

作为示例,您可以在 R 中尝试此代码:

library(randomForest)
data("iris")
head(iris)

TrainingX<-iris[1:100,2:4] #creating training set - X matrix
TrainingY<-iris[1:100,1] #creating training set - Y vector

TestingX<-iris[101:150,2:4] #creating test set - X matrix
TestingY<-iris[101:150,1] #creating test set - Y vector

set.seed(2)

model<-randomForest(x=TrainingX, y= TrainingY, ntree=500, #calculating model
xtest = TestingX, ytest = TestingY)

#for prediction (training set)

pred<-model$predicted

meanY<-sum(TrainingY)/length(TrainingY)

varpY<-sum((TrainingY-meanY)^2)/length(TrainingY)

mseY<-sum((TrainingY-pred)^2)/length(TrainingY)

r2<-(1-(mseY/varpY))*100

#for testing (test set)

pred_2<-model$test$predicted

meanY_2<-sum(TestingY)/length(TestingY)

varpY_2<-sum((TestingY-meanY_2)^2)/length(TestingY)

mseY_2<-sum((TestingY-pred_2)^2)/length(TestingY)

r2_2<-(1-(mseY_2/varpY_2))*100

training_set_mse<-c(model$mse[500], mseY)
training_set_rsq<-c(model$rsq[500]*100, r2)
testing_set_mse<-c(model$test$mse[500],mseY_2)
testing_set_rsq<-c(model$test$rsq[500]*100, r2_2)

c<-cbind(training_set_mse,training_set_rsq,testing_set_mse, testing_set_rsq)
rownames(c)<-c("last tree", "by hand")
c
model

运行此代码后,您将获得一个包含 MSE 和 %varexplaines(也称为 rsq)值的表。第一行称为“最后一棵树”,包含为森林中第 500 棵树解释的 MSE 和 %var 值。第二行称为“手动”,它包含基于向量 model$predictedmodel$test$predicted 在 R 中计算的结果。

所以,我的问题是:

1- 树的预测是否以某种方式累积?或者说它们是相互独立的? (我以为他们是独立的)

2- 最后一棵树是否被视为所有其他树的平均值?

3- 为什么 RF 模型的 MSE 和 %var 解释(当您调用 model 时在主板中显示)与第 500 棵树中的相同(参见表的第一行) ?向量 model$msemodel$rsq 是否包含累积值?

最后一次编辑后,我发现 Andy Liaw(该包的创建者之一)发表的这篇文章说 MSE 和 %var 解释实际上是累积的!: https://stat.ethz.ch/pipermail/r-help/2004-April/049943.html .

最佳答案

不确定我理解您的问题是什么;不过我还是会尝试一下...

1- Are the predictions of the trees somehow cumulative? Or are they independent from each other? (I thought they were independent)

你的想法是对的;这些树彼此独立拟合,因此它们的预测确实是独立的。事实上,这是 RF 模型的一个关键优势,因为它允许并行实现。

2- Is the last tree to be considered as an average of all the others?

;如上所述,所有树都是独立的。

3- If each tree gets a prediction, how can I get the matrix with all the trees, since what I need is the MSE and % var explained for the forest?

鉴于上面的代码,您所问的问题开始变得非常不清楚;您所说的 MSE 和 r2 正是您已经在 mseYr2 中计算的内容:

mseY
[1] 0.1232342

r2
[1] 81.90718

毫不奇怪,这与模型报告的值完全相同:

model
# result:

Call:
randomForest(x = TrainingX, y = TrainingY, ntree = 500)
Type of random forest: regression
Number of trees: 500
No. of variables tried at each split: 1

Mean of squared residuals: 0.1232342
% Var explained: 81.91

所以我不确定我是否真的能看到你的问题,或者这些值与“所有树的矩阵”有什么关系......

But when I do model$mse, the value presented corresponds to the value of MSE for the last tree calculated, and the same happens for % var explained.

肯定不是:model$mse 是一个长度等于树数(此处为 500)的向量,包含每棵树的 MSE ;(参见下面的更新)我在实践中从未见过它有任何用途(与 model$rsq 类似):

length(model$mse)
[1] 500

length(model$rsq)
[1] 500

更新:感谢OP本人(参见评论),她发现model$msemodel$rsq中的数量是确实累积(!);来自包维护者 Andy Liaw 的旧线程(2004 年),Extracting the MSE and % Variance from RandomForest :

Several ways:

  1. Read ?randomForest, especially the `Value' section.
  2. Look at str(myforest.rf).
  3. Look at print.randomForest.

If the forest has 100 trees, then the mse and rsq are vectors with 100 elements each, the i-th element being the mse (or rsq) of the forest consisting of the first i trees. So the last element is the mse (or rsq) of the whole forest.

关于随机森林回归 - 累积 MSE?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55198048/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com