gpt4 book ai didi

R:在 glm() 中的逻辑回归中预测 (0,1)

转载 作者:行者123 更新时间:2023-12-04 05:42:07 25 4
gpt4 key购买 nike

我正在尝试在二元 logit 模型中模拟“假设”情况。我正在估计通过测试的概率,考虑到测试的难度(1=最简单,5=最难),并以性别为控制。 (数据为 here )。学生将接受一项通常很难的测试(数据中的“高”)。由此我们可以估计测试难度对通过可能性的影响:

model = glm(PASS ~ as.factor(SEX) + as.factor(HIGH), family=binomial(link="logit"), data=df)
summary(model)

我们还可以获得通过的预测概率:
predict.high = predict(model, type="response")

问题是,如果改为进行“LOW”测试呢?要获得新的概率,我们可以这样做:
newdata = rename.vars(subset(df, select=c(-HIGH)), 'LOW','HIGH')
predict.low = predict(model, newdata=newdata, type="response")

但是我怎么知道在这种情况下会有多少额外的学生通过呢? glm()中是否有明显的切换我不看?

最佳答案

我还没有尝试挖掘我基于 Gelman 和 Hill (2006) 编写的预测代码,我似乎记得使用过模拟。我仍然打算这样做。在我有限的经验中,你的问题的一个方面似乎是独一无二的,因为我习惯于预测一次观察(在这种情况下,一个学生参加一次测试)。但是,您似乎想要预测两组预测之间的差异。换句话说,您想预测如果给定一组 5 门简单考试而不是一组 5 门硬考试,将会有多少学生通过。

我不确定 Gelman 和 Hill (2006) 是否涵盖了这一点。您似乎也想用常客方法来做到这一点。

我在想,如果您可以预测单个观察结果,以便每个观察结果都有一个置信区间,那么也许您可以估计每个组内通过的加权平均概率并减去两个加权平均值。 delta 方法可用于估计加权平均值及其差异的置信区间。

可能必须假设预测观测值之间的协方差为 0 才能实现该方法。

如果假设协方差为 0 不令人满意,那么贝叶斯方法可能会更好。同样,我只熟悉预测单个观察。使用贝叶斯方法,我通过包括自变量而不是因变量来预测单个观察,以便预测观察。我想你可以在同一个贝叶斯运行中预测每个观察(预测每个学生的高和低)。每组通过测试的加权平均值和加权平均值的差异是派生参数,我怀疑可以直接包含在贝叶斯逻辑回归的代码中。然后,您将对通过每组测试的概率以及通过每组测试的概率差异进行点估计和方差估计。如果您想要通过每组测试的学生人数的差异,也许这也可以作为派生参数包含在贝叶斯代码中。

我意识到,到目前为止,这个答案比预期的更具对话性。我只是制定了尝试的策略,而没有时间尝试实现这些策略。提供所有 R 和 WinBUGS 代码来实现这两个提议的策略可能需要我几天时间。 (WinBUGS 或 OpenBUGS 可以从 R 中调用。)我会在继续的过程中将代码附加到这个答案中。如果有人认为我提出的策略和/或即将发布的代码不正确,我希望他们能随时指出我的错误并提供更正。

编辑

下面是生成假数据并使用频率论和贝叶斯方法分析该数据的代码。我还没有添加代码来实现上面的预测思路。我会在接下来的 1-2 天内尝试添加贝叶斯预测代码。我只使用了三个测试而不是五个。下面的代码编写方式,您可以将学生人数 n 更改为可以分为 6 个相等整数的任何非零数。

# Bayesian_logistic_regression_June2012.r
# June 24, 2012

library(R2WinBUGS)
library(arm)
library(BRugs)

set.seed(3234)


# create fake data for n students and three tests

n <- 1200

# create factors for n/6 students in each of 6 categories

gender <- c(rep(0, (n/2)), rep(1, (n/2)))
test2 <- c(rep(0, (n/6)), rep(1, (n/6)), rep(0, (n/6)),
rep(0, (n/6)), rep(1, (n/6)), rep(0, (n/6)))
test3 <- c(rep(0, (n/6)), rep(0, (n/6)), rep(1, (n/6)),
rep(0, (n/6)), rep(0, (n/6)), rep(1, (n/6)))

# assign slopes to factors

B0 <- 0.4
Bgender <- -0.2
Btest2 <- 0.6
Btest3 <- 1.2

# estimate probability of passing test

p.pass <- ( exp(B0 + Bgender * gender +
Btest2 * test2 +
Btest3 * test3) /
(1 + exp(B0 + Bgender * gender +
Btest2 * test2 +
Btest3 * test3)))

# identify which students passed their test, 0 = fail, 1 = pass

passed <- rep(0, n)
r.passed <- runif(n,0,1)
passed[r.passed <= p.pass] = 1

# use frequentist approach in R to estimate probability
# of passing test

m.freq <- glm(passed ~ as.factor(gender) +
as.factor(test2) +
as.factor(test3) ,
family = binomial)
summary(m.freq)

# predict(m.freq, type = "response")


# use OpenBUGS to analyze same data set

# Define model

sink("Bayesian.logistic.regression.txt")
cat("
model {

# Priors

alpha ~ dnorm(0,0.01)
bgender ~ dnorm(0,0.01)
btest2 ~ dnorm(0,0.01)
btest3 ~ dnorm(0,0.01)

# Likelihood

for (i in 1:n) {
passed[i] ~ dbin(p[i], 1)
logit(p[i]) <- (alpha + bgender * gender[i] +
btest2 * test2[i] +
btest3 * test3[i])
}

# Derived parameters

p.g.t1 <- exp(alpha) / (1 + exp(alpha))
p.b.t1 <- exp(alpha + bgender) / (1 + exp(alpha + bgender))

p.g.t2 <- ( exp(alpha + btest2) /
(1 + exp(alpha + btest2)))
p.b.t2 <- ( exp(alpha + bgender + btest2) /
(1 + exp(alpha + bgender + btest2)))

p.g.t3 <- ( exp(alpha + btest3) /
(1 + exp(alpha + btest3)))
p.b.t3 <- ( exp(alpha + bgender + btest3) /
(1 + exp(alpha + bgender + btest3)))

}

", fill = TRUE)
sink()

my.data <- list(passed = passed,
gender = gender,
test2 = test2,
test3 = test3,
n = length(passed))

# Inits function

inits <- function(){ list(alpha = rlnorm(1),
bgender = rlnorm(1),
btest2 = rlnorm(1),
btest3 = rlnorm(1)) }

# Parameters to estimate

params <- c("alpha", "bgender", "btest2", "btest3",
"p.g.t1", "p.b.t1", "p.g.t2", "p.b.t2",
"p.g.t3", "p.b.t3")

# MCMC settings

nc <- 3
ni <- 2000
nb <- 500
nt <- 2

# Start Gibbs sampling

out <- bugs(data = my.data, inits = inits,
parameters.to.save = params,
"c:/users/Mark W Miller/documents/Bayesian.logistic.regression.txt",
program = 'OpenBUGS',
n.thin = nt, n.chains = nc,
n.burnin = nb, n.iter = ni, debug = TRUE)

print(out, dig = 5)

在我尝试实现加权平均预测方法之前,我想说服自己它可能会起作用。所以我编写了以下代码,这似乎表明它可能:
# specify number of girls taking each test and
# number of boys taking each test

g.t1 <- rep(0,400)
b.t1 <- rep(0,120)
g.t2 <- rep(0,1200)
b.t2 <- rep(0,50)
g.t3 <- rep(0,1000)
b.t3 <- rep(0,2000)

# specify probability of individuals in each of the
# 6 groups passing their test

p.g1.t1 <- 0.40
p.b1.t1 <- 0.30
p.g1.t2 <- 0.60
p.b1.t2 <- 0.50
p.g1.t3 <- 0.80
p.b1.t3 <- 0.70

# identify which individuals in each group passed their test

g.t1[1:(p.g1.t1 * length(g.t1))] = 1
sum(g.t1)

b.t1[1:(p.b1.t1 * length(b.t1))] = 1
sum(b.t1)

g.t2[1:(p.g1.t2 * length(g.t2))] = 1
sum(g.t2)

b.t2[1:(p.b1.t2 * length(b.t2))] = 1
sum(b.t2)

g.t3[1:(p.g1.t3 * length(g.t3))] = 1
sum(g.t3)

b.t3[1:(p.b1.t3 * length(b.t3))] = 1
sum(b.t3)

# determine the weighted average probability of passing
# on test day for all individuals as a class

wt.ave.p <- ((p.g1.t1 * length(g.t1) + p.b1.t1 * length(b.t1) +
p.g1.t2 * length(g.t2) + p.b1.t2 * length(b.t2) +
p.g1.t3 * length(g.t3) + p.b1.t3 * length(b.t3) ) /

(length(g.t1) + length(b.t1) + length(g.t2) +
length(b.t2) + length(g.t3) + length(b.t3)))

wt.ave.p

# determine the expected number of individuals passing
# their test in the class as a whole

exp.num.pass <- wt.ave.p * (length(g.t1) + length(b.t1) +
length(g.t2) + length(b.t2) +
length(g.t3) + length(b.t3))
exp.num.pass

# determine the number of individuals passing

num.passing <- (sum(g.t1) + sum(b.t1) +
sum(g.t2) + sum(b.t2) +
sum(g.t3) + sum(b.t3) )
num.passing

# the expected number of students passing, exp.num.pass,
# should equal the observed number of students passing,
# num.passing regardless of the number of students in each
# group and regardless of the probability of passing a
# given test, within rounding error

identical(round(exp.num.pass), round(num.passing))

希望在接下来的几天里,我可以尝试将预测代码添加到上述贝叶斯代码中。

编辑 - 2012 年 6 月 27 日

我没有忘记这件事。相反,我遇到了几个问题:
  • 使用逻辑回归可以预测:a) 给定组中的学生通过测试的概率 p,以及 b) 给定学生参加测试的结果(0 或 1)。然后对所有 0 和 1 求平均值。我不确定要使用其中的哪一个。预测 p 的点估计和 SD 与已知测试结果的估计 p 相同。预测的 0 和 1 的平均值的点估计略有不同,平均 0 和 1 的 SD 大得多。我相信我想要 b,预测的 0 和 1 的平均值。但是,我正在尝试检查各种网站和书籍以确定。 Collett (1991) 有一个不使用计算机代码的工作示例,但该工作示例包括六个变量,包括 2 个交互,我在让我的贝叶斯估计与她的常客估计相匹配时遇到了一些麻烦。
  • 由于有大量派生参数,程序需要很长时间才能运行。
  • 显然,即使没有预测代码,OpenBUGS 也经常崩溃,我相信。我不确定这是因为我做错了什么,还是因为最近版本的 R 或最近版本的 R 包的变化,或者因为我试图用 64 位 R 或其他东西运行代码别的。

  • 我会尽快发布预测代码,但上述所有问题都让我慢了下来。

    关于R:在 glm() 中的逻辑回归中预测 (0,1),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11167154/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com