gpt4 book ai didi

r - 绘制决策树分类器

转载 作者:行者123 更新时间:2023-12-04 03:31:30 24 4
gpt4 key购买 nike

在我的 dataset 中,我有一个二进制 Target(0 或 1)变量和 8 个特征:ncharrtcTmeanweek_dayhourntagsnlinks下一个week_day 是一个因素,而其他因素是数字。我正在尝试构建决策树分类器:

library(caTools)
set.seed(123)
split = sample.split(dataset$Target, SplitRatio = 0.75)
training_set = subset(dataset, split == TRUE)
test_set = subset(dataset, split == FALSE)

# Feature Scaling
training_set[-c(2,4)] = scale(training_set[-c(2,4)])
test_set[-c(2,4)] = scale(test_set[-c(2,4)])

# Fitting Decision Tree Classification to the Training set
# install.packages('rpart')
library(rpart)
classifier = rpart(formula = Target ~ .,
data = training_set)

# Predicting the Test set results
y_pred = predict(classifier, newdata = test_set[-2], type = 'class')

# Making the Confusion Matrix
cm = table(test_set[, 2], y_pred)

plot(classifier, uniform=TRUE,margin=0.2)

绘图的结果如下:

enter image description here

我有三个不知道答案的问题:

  1. 为什么图中缺少一些变量? (例如 rtc)
  2. week_day 中的 aefg 是什么意思?
  3. 有没有办法描述不同的类(Target 变量为 0 对 1)?例如:在 Target=1 中,我们拥有所有包含 nchar>0.19 的行,并且ntags>1.9

最佳答案

这里有一些数据的解释,你可以在包 rpart 中获取:

library(rpart)   # for decision tree
library(rattle) # to do a nicer plot

progstat <- factor(stagec$pgstat, levels = 0:1, labels = c("No", "Prog"))
cfit <- rpart(progstat ~ age + eet + g2 + grade + gleason + ploidy,
data = stagec,
method ='class')

问题一:为什么有些变量会out?
因为这些变量对您的模型没有用,或者更确切地说,您已经告诉您的模型不要在参数 cp(默认值 = 0.01)下获取变量。
看着the doc对于 cp 参数:

(...)Essentially,the user informs the program that any split which does notimprove the fit by cp will likely be pruned off by cross-validation,and that hence the program need not pursue it.

我认为该文档在技术上比我解释得更好,如果我必须用简单的词来讲述它,cp 参数设置了节点“效用”的基线。
如果节点是由无用变量创建的,则会将其删除,因此不会出现无用(阅读:变量在模型中没有更多信息)变量。尝试在您的模型中设置参数,您将看到它是如何变化的。在我的例子中,eet 变量不可用。
发送这个:

 summary(cfit)
Call:
rpart(formula = progstat ~ age + eet + g2 + grade + gleason +
ploidy, data = stagec, method = "class")
n= 146

CP nsplit rel error xerror xstd
1 0.10493827 0 1.0000000 1.0000000 0.1080241
2 0.05555556 3 0.6851852 1.0555556 0.1091597
3 0.02777778 4 0.6296296 0.9629630 0.1071508
4 0.01851852 6 0.5740741 0.9629630 0.1071508
5 0.01000000 7 0.5555556 0.9814815 0.1075992

Variable importance
g2 grade gleason ploidy age eet
30 28 20 13 7 2

(... it continues...)

你可以看到 eet 是最不重要的。

问题 2:week_day 中的 aefg 是什么意思?
这意味着拆分是由左边的一些 week_day 和右边的一些进行的。它应该是一个分类变量。
尝试使用这个,而不是经典情节:

fancyRpartPlot(cfit, caption = NULL)

enter image description here

你可以看到倍体和四倍体被送到左边,另一个在右边。来自 here :

(...)The tree is arranged so that the “more severe” nodes go to theright

问题 3:有没有一种方法可以描述不同的类别(Target 变量为 0 与 1)?
在这种情况下,变量是 progstat,但您可以将解释传输到您的变量。
这就是我在情节中阅读这些结果的一般方式:

查看第一个节点(最重要的):它告诉我们 63% 是“否”,37% 是“prog”(读作是)。该节点覆盖了 100% 的人口。

第二个最重要的节点是 2,接受的变量是 grade < 2.5。否则,您将进入节点三。

如果您向左走,则您拥有 42% 的人口。那个人口的标签是No,但是,85%的人口是真正的No,其他的都是错误的No。

长话短说
这意味着“总体人口分为 No 和 Prog,分别为 63% 和 27%。
如果变量 grade 为 < 2.5,模型表示在我们的数据中,42%的人口具有 grade 的值,在这 42% 的人中,85% 的人的结果为 No。可能 grade 和因变量“no”的结果是保税”。
通过这种方式,您可以检查绘图中的所有节点,还可以使用 summary() 来查看最重要的模式。

在你的情节中,你可以说“如果 ntags > 1.952 和 nchar < 0.1449,那么我有一个 0。

关于r - 绘制决策树分类器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/66713251/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com