- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
有谁知道 R randomForest 包用来解决分类关系的机制是什么 - 即当树最终在两个或多个类别中获得相同的投票时?
文档说领带是随机断开的。但是,当您在一组数据上训练模型,然后使用一组验证数据多次对该模型进行评分时,绑定(bind)类决策并不是 50/50。
cnum = vector("integer",1000)
for (i in 1:length(cnum)){
cnum[i] = (as.integer(predict(model,val_x[bad_ind[[1]],])))
}
cls = unique(cnum)
for (i in 1:length(cls)){
print(length(which(cnum == cls[i])))
}
其中 model
是 randomForest 对象,而 bad_ind
只是具有平局类别投票的特征向量的索引列表。在我的测试用例中,使用上面的代码,两个绑定(bind)类之间的分布更接近 90/10。
此外,使用奇数树的建议通常不适用于第三类拉一些选票而导致其他两个类打平的情况。
这些射频树与投票相关的案例不应该以 50/50 的结果结束吗?
更新:由于训练森林的随机性,很难提供一个例子,但是下面的代码(抱歉)最终应该产生森林无法确定明显获胜者的例子。我的测试运行显示,当平局被打破时,分布为 66%/33% - 我预计这是 50%/50%。
library(randomForest)
x1 = runif(200,-4,4)
x2 = runif(200,-4,4)
x3 = runif(1000,-4,4)
x4 = runif(1000,-4,4)
y1 = dnorm(x1,mean=0,sd=1)
y2 = dnorm(x2,mean=0,sd=1)
y3 = dnorm(x3,mean=0,sd=1)
y4 = dnorm(x4,mean=0,sd=1)
train = data.frame("v1"=y1,"v2"=y2)
val = data.frame("v1"=y3,"v2"=y4)
tlab = vector("integer",length(y1))
tlab_ind = sample(1:length(y1),length(y1)/2)
tlab[tlab_ind]= 1
tlab[-tlab_ind] = 2
tlabf = factor(tlab)
vlab = vector("integer",length(y3))
vlab_ind = sample(1:length(y3),length(y3)/2)
vlab[vlab_ind]= 1
vlab[-vlab_ind] = 2
vlabf = factor(vlab)
mm <- randomForest(x=train,y=tlabf,ntree=100)
out1 <- predict(mm,val)
out2 <- predict(mm,val)
out3 <- predict(mm,val)
outv1 <- predict(mm,val,norm.votes=FALSE,type="vote")
outv2 <- predict(mm,val,norm.votes=FALSE,type="vote")
outv3 <- predict(mm,val,norm.votes=FALSE,type="vote")
(max(as.integer(out1)-as.integer(out2)));(min(as.integer(out1)-as.integer(out2)))
(max(as.integer(out2)-as.integer(out3)));(min(as.integer(out2)-as.integer(out3)))
(max(as.integer(out1)-as.integer(out3)));(min(as.integer(out1)-as.integer(out3)))
bad_ind = vector("list",0)
for (i in 1:length(out1)) {
#for (i in 1:100) {
if (out1[[i]] != out2[[i]]){
print(paste(i,out1[[i]],out2[[i]],sep = "; "))
bad_ind = append(bad_ind,i)
}
}
for (j in 1:length(bad_ind)) {
cnum = vector("integer",1000)
for (i in 1:length(cnum)) {
cnum[[i]] = as.integer(predict(mm,val[bad_ind[[j]],]))
}
cls = unique(cnum)
perc_vals = vector("integer",length(cls))
for (i in 1:length(cls)){
perc_vals[[i]] = length(which(cnum == cls[i]))
}
cat("for feature vector ",bad_ind[[j]]," the class distrbution is: ",perc_vals[[1]]/sum(perc_vals),"/",perc_vals[[2]]/sum(perc_vals),"\n")
}
更新:这应该在 randomForest 4.6-3 版本中修复。
最佳答案
如果没有完整的示例,很难判断这是否是唯一的错误,但是上面包含的代码的一个明显问题是您没有复制模型拟合步骤 - 仅复制预测步骤。任意平局打破的选择是在您拟合模型时完成的,因此如果您不重做该部分,您的 predict()
调用将继续为同一类提供更高的概率/投票。
试试这个例子,它正确地演示了您想要的行为:
library(randomForest)
df = data.frame(class=factor(rep(1:2, each=5)), X1=rep(c(1,3), each=5), X2=rep(c(2,3), each=5))
fitTie <- function(df) {
df.rf <- randomForest(class ~ ., data=df)
predict(df.rf, newdata=data.frame(X1=1, X2=3), type='vote')[1]
}
> df
class X1 X2
1 1 1 2
2 1 1 2
3 1 1 2
4 1 1 2
5 1 1 2
6 2 3 3
7 2 3 3
8 2 3 3
9 2 3 3
10 2 3 3
> mean(replicate(10000, fitTie(df)))
[1] 0.49989
关于R randomForest 投票平局,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/8422279/
setwd("D:/Santander") ## import train dataset train0.9999] train2<-train[,! colnames(train) %in% c(e
当我运行这样的代码时,我对获得的不同结果感到困惑: set.seed(100) test1<-randomForest(BinaryY~., data=Xvars, trees=51, mtry=5,
当我通过拆分单个数据帧创建训练集和测试集并使用 randomForest 包构建随机森林时,对于训练数据中不存在的某些因子级别, predict() 函数仍然会抛出一个输出。虽然这没有给出错误(这是我
当尝试在因子水平低于我的训练数据的新测试数据上测试我的训练模型时,predict()返回以下内容: Type of predictors in new data do not match that o
我正在尝试使用 randomForest 进行分类,但我反复收到一条错误消息,似乎没有明显的解决方案(randomForest 在过去对我进行回归时效果很好)。我在下面粘贴了我的代码。 “成功”是一个
我想训练我的模型并选择最佳的树数量。代码在这里 from sklearn.ensemble import RandomForestClassifier tree_dep = [3,5,6] tree_
有谁知道 R randomForest 包用来解决分类关系的机制是什么 - 即当树最终在两个或多个类别中获得相同的投票时? 文档说领带是随机断开的。但是,当您在一组数据上训练模型,然后使用一组验证数据
我在使用 RandomForest 拟合函数时遇到问题 这是我的训练集 P1 Tp1 IrrPOA Gz Drz2 0
在 randomForest 包中实现的 R 随机森林算法对数字类和整数类的变量的行为是否相同? 最佳答案 是的,randomForest 实现确实对待整数和数字( double )类似。在 RF 模
重要性图: 我想将 y 轴文本向右对齐,并且还想根据不同的变量组为变量着色。例如 Limonene 和 Valencane,a-Selinene 和 g-Selinen 分别属于同一组。 但我在 "r
R 3.0.0 的新特性之一是引入了长向量。但是, .C() 和 .Fortran() 不接受长向量输入。在 R-bloggers我发现: This is a precaution as it is
我一直在用 R 对 700 万行数据(41 个特征)训练 randomForest 模型。这是一个示例调用: myModel <- randomForest(RESPONSE~., data=myda
我一直在尝试安装 R 包“randomForest”,为此我运行了通常的安装命令 install.packages("randomForest", dependencies = T) 这给了我以下错误
我正在尝试构建一个在线随机森林分类器。在 for 循环中,我遇到了一个错误,但找不到原因。 clf = RandomForestClassifier(n_estimators=1, warm_star
如果我运行 randomForest(y ~ x, data = df) 模型,x 会得到超过 53 个级别的因子变量 Error in randomForest.default(m, y, ...)
我在 R 中使用 randomForest 包来构建几个物种分布模型。我的响应变量是二元的(0 - 缺席或 1 存在),并且非常不平衡 - 对于某些物种,缺席:存在的比率是 37:1。这种不平衡(或零
我刚刚开始使用 Weka,当我的决策树太深时我无法理解。我有一组 423 个特征,据我所知,这些特征是为每个目标随机选择的。因此,这些特征子集生成带有决策叶的分支或流程,这些决策叶似乎不通用,实际上它
关闭。这个问题需要多问focused 。目前不接受答案。 想要改进此问题吗?更新问题,使其仅关注一个问题 editing this post . 已关闭 5 年前。 Improve this ques
我的数据高度不平衡,想要对少数类进行上采样以提高准确性(少数类是感兴趣的对象)。 我尝试在“randomForest”函数中使用“sampsize”选项 - 但它只允许下采样。我在某个地方读到,可以使
我有一个包含 10,000 行和两列的数据框、段(具有 32 个值的因子)和目标(具有两个值"is"和“否”的因子,每个值 5,000 个)。我正在尝试使用随机森林来使用分段作为特征对目标进行分类。
我是一名优秀的程序员,十分优秀!