- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我使用 MASS 和 lme4 运行混合效应逻辑回归,但得到不同的结果,我想知道是否(以及哪里)出了问题。
我的模型如下:
DV:synt_num(0 与 1)
IV:voc1_tvl:连续
wo:二分法(“vs”和“vo”)
动词:二分法(“c”和“t”)
使用质量
如果我输入以下公式:
synt1 = glmmPQL (synt_num ~ voc1_tvl*verb*wo, random = ~1|participants, data=opz, family="binomial")
我得到以下输出
Linear mixed-effects model fit by maximum likelihood
Data: ops
AIC BIC logLik
NA NA NA
Random effects:
Formula: ~1 | participants
(Intercept) Residual
StdDev: 21.50518 0.003233762
Variance function:
Structure: fixed weights
Formula: ~invwt
Fixed effects: synt_num ~ voc1_tvl * verb * wo
Value Std.Error DF t-value p-value
(Intercept) -294.2627 22.41770 65 -13.126356 0.0000
voc1_tvl 5.0748 0.27293 65 18.593945 0.0000
verb[T.t] 152.6929 36.62349 47 4.169260 0.0001
wo[T.vs] 327.9534 36.62150 47 8.955216 0.0000
voc1_tvl:verb[T.t] -3.3897 0.45180 47 -7.502784 0.0000
voc1_tvl:wo[T.vs] -5.3135 0.45178 47 -11.761381 0.0000
verb[T.t]:wo[T.vs] -252.0190 73.23996 47 -3.441004 0.0012
voc1_tvl:verb[T.t]:wo[T.vs] 4.3519 0.90346 47 4.816905 0.0000
Correlation:
(Intr) vc1_tv vr[T.] w[T.v] vc1_tvl:v[T.]
voc1_tvl -0.992
verb[T.t] -0.588 0.601
wo[T.vs] -0.588 0.601 1.000
voc1_tvl:verb[T.t] 0.588 -0.601 -1.000 -1.000
voc1_tvl:wo[T.vs] 0.588 -0.601 -1.000 -1.000 1.000
verb[T.t]:wo[T.vs] 0.588 -0.601 -1.000 -1.000 1.000
voc1_tvl:verb[T.t]:wo[T.vs] -0.588 0.601 1.000 1.000 -1.000
vc1_tvl:w[T.] v[T.]:
voc1_tvl
verb[T.t]
wo[T.vs]
voc1_tvl:verb[T.t]
voc1_tvl:wo[T.vs]
verb[T.t]:wo[T.vs] 1.000
voc1_tvl:verb[T.t]:wo[T.vs] -1.000 -1.000
Standardized Within-Group Residuals:
Min Q1 Med Q3 Max
-3.8945233603 -0.0025293449 -0.0001866073 0.0018900747 3.2648586389
Number of Observations: 120
Number of Groups: 67
现在,我被告知,如果 SE 超过估计值的一半,则模型不可靠。然而,情况似乎并非如此。也就是说,我认为输出没有任何问题。如果我将数据绘制成图表,这些结果是有意义的(而且它也符合预测)。
但是,当我使用lme4时......
使用 LME4
如果我使用 lme4 和以下代码
>synt = glmer (synt_num ~ voc1_tvl*verb*wo + (1|participants), data=opz, family="binomial")
我收到以下警告
Warning in checkConv(attr(opt, "derivs"), opt$par, ctrl = control$checkConv, :
Model failed to converge with max|grad| = 0.00757738 (tol = 0.001, component 1)
Warning in checkConv(attr(opt, "derivs"), opt$par, ctrl = control$checkConv, :
Model is nearly unidentifiable: large eigenvalue ratio
- Rescale variables?
现在,为什么我会收到 lme4 的警告,而不是 MASS 的警告?
据我了解,最后一个警告可以通过将我拥有的唯一连续变量(voc1_tvl)居中来解决。我错了吗?
其他警告呢?
如果我强制输出最后一个模型,我会得到与之前的 MASS 输出完全不同的东西
Generalized linear mixed model fit by maximum likelihood (Laplace Approximation) ['glmerMod']
Family: binomial ( logit )
Formula: synt_num ~ voc1_tvl * verb * wo + (1 | participants)
Data: opz
AIC BIC logLik deviance df.resid
117.8 142.9 -49.9 99.8 111
Scaled residuals:
Min 1Q Median 3Q Max
-2.8743 -0.3513 0.2158 0.3564 2.5211
Random effects:
Groups Name Variance Std.Dev.
participants (Intercept) 1.074 1.036
Number of obs: 120, groups: participants, 67
Fixed effects:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -9.857319 4.856734 -2.030 0.0424 *
voc1_tvl 0.153749 0.070039 2.195 0.0281 *
verb[T.t] -1.321681 6.377127 -0.207 0.8358
wo[T.vs] 11.089804 6.181132 1.794 0.0728 .
voc1_tvl:verb[T.t] -0.004359 0.082863 -0.053 0.9580
voc1_tvl:wo[T.vs] -0.135696 0.081618 -1.663 0.0964 .
verb[T.t]:wo[T.vs] -6.648285 8.266898 -0.804 0.4213
voc1_tvl:verb[T.t]:wo[T.vs] 0.068410 0.105191 0.650 0.5155
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Correlation of Fixed Effects:
(Intr) vc1_tv vr[T.] w[T.v] vc1_tvl:v[T.] vc1_tvl:w[T.] v[T.]:
voc1_tvl -0.986
verb[T.t] -0.528 0.493
wo[T.vs] -0.834 0.829 0.431
vc1_tvl:v[T.] 0.594 -0.579 -0.985 -0.490
vc1_tvl:w[T.] 0.838 -0.848 -0.445 -0.986 0.518
vr[T.]:[T.] 0.583 -0.566 -0.794 -0.719 0.802 0.710
v1_:[T.]:[T -0.596 0.591 0.802 0.724 -0.828 -0.737 -0.986
convergence code: 0
Model failed to converge with max|grad| = 0.00757738 (tol = 0.001, component 1)
Model is nearly unidentifiable: large eigenvalue ratio
- Rescale variables?
现在,可能是我的模型数据太少,事实上,如果我在没有交互的情况下进入模型,我不会收到警告和以下输出
Generalized linear mixed model fit by maximum likelihood (Laplace Approximation) ['glmerMod']
Family: binomial ( logit )
Formula: synt_num ~ voc1_tvl + verb + wo + (1 | participants)
Data: opz
AIC BIC logLik deviance df.resid
118.7 132.7 -54.4 108.7 115
Scaled residuals:
Min 1Q Median 3Q Max
-5.2222 -0.4314 0.2455 0.4756 2.7784
Random effects:
Groups Name Variance Std.Dev.
participants (Intercept) 0.4567 0.6758
Number of obs: 120, groups: participants, 67
Fixed effects:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -3.96657 1.63767 -2.422 0.015432 *
voc1_tvl 0.08047 0.02380 3.381 0.000721 ***
verb[T.t] -2.13885 0.65960 -3.243 0.001184 **
wo[T.vs] -0.18627 0.50623 -0.368 0.712901
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Correlation of Fixed Effects:
(Intr) vc1_tv vr[T.]
voc1_tvl -0.933
verb[T.t] 0.271 -0.531
wo[T.vs] -0.168 -0.011 0.051
因此,正如 Ben 在下面建议的那样,我可能应该追求一组更有限/减少的交互。如果仅使用两个变量输入模型,但有一个交互,如下所示:
> synt = glmer (synt_num ~ voc1_tvl*verb + (1|participants), data=opz, family="binomial")
我再次收到以下警告:
Warning in checkConv(attr(opt, "derivs"), opt$par, ctrl = control$checkConv, :
Model is nearly unidentifiable: large eigenvalue ratio
- Rescale variables?
我得到的输出表明动词不重要
Generalized linear mixed model fit by maximum likelihood (Laplace
Approximation) [glmerMod]
Family: binomial ( logit )
Formula: synt_num ~ voc1_tvl * verb + (1 | participants)
Data: opz
AIC BIC logLik deviance df.resid
118.5 132.5 -54.3 108.5 115
Scaled residuals:
Min 1Q Median 3Q Max
-4.6510 -0.4008 0.2483 0.4341 3.0910
Random effects:
Groups Name Variance Std.Dev.
participants (Intercept) 0.5154 0.7179
Number of obs: 120, groups: participants, 67
Fixed effects:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -3.24172 2.16991 -1.494 0.1352
voc1_tvl 0.06912 0.03060 2.259 0.0239 *
verb[T.t] -3.80171 3.10388 -1.225 0.2206
voc1_tvl:verb[T.t] 0.02172 0.03888 0.559 0.5764
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Correlation of Fixed Effects:
(Intr) vc1_tv vr[T.]
voc1_tvl -0.968
verb[T.t] -0.594 0.518
vc1_tv:[T.] 0.653 -0.619 -0.977
convergence code: 0
Model is nearly unidentifiable: large eigenvalue ratio
- Rescale variables
为什么当我只输入主效应时它会告诉我动词是重要的,但当我输入交互作用和只有两个预测变量时却不会?
这是可疑的,因为如果我使用回归树,动词就会被拾取并且很重要。
看起来当我使用 lme4 时,模型无法进行交互
大问题
我可以相信第一个(MASS)输出吗? 下面的善意回答表明不,我不能
我应该担心 lme4 说的话吗?
在第二种情况下,考虑到我正在研究的主要是交互的作用,我的数据集是否超出了希望?
本说:
由于完全分离,您可能会遇到问题(即问题在于您的数据,而不是拟合过程),但如果您处理这种可能性,然后尝试将 glmer 模型与其他优化器拟合 - 并得到类似的结果 - 那么您可以忽略警告。
我尝试使用以下公式使用“nloptwrap”(http://angrystatistician.blogspot.co.uk/2015/10/mixed-models-in-r-bigger-faster-stronger.html)
> synt.model = synt_num ~ voc1_tvl*verb*wo + (1|participants)
> fit <- glmer(synt.model, data=opz, verbose=TRUE, family=poisson(link=log), nAGQ=0, control=glmerControl(optimizer = "nloptwrap"))
但是,我收到以下警告
Warning in optwrap(optimizer, devfun, start, rho$lower, control = control, :
'verbose' not yet passed to optimizer 'nloptwrap'; consider fixing optwrap()
因此我去掉了冗长的部分并输入了
> fit <- glmer(synt.model, data=opz, family=poisson(link=log), nAGQ=0, control=glmerControl(optimizer = "nloptwrap"))
和
> summary(fit)
( log )
Formula: synt_num ~ voc1_tvl * verb * wo + (1 | participants)
Data: opz
Control: glmerControl(optimizer = "nloptwrap")
AIC BIC logLik deviance df.resid
234.0 259.1 -108.0 216.0 111
Scaled residuals:
Min 1Q Median 3Q Max
-0.96391 -0.45210 0.08698 0.26229 2.25782
Random effects:
Groups Name Variance Std.Dev.
participants (Intercept) 0 0
Number of obs: 120, groups: participants, 67
Fixed effects:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -2.29833 1.57388 -1.460 0.144
voc1_tvl 0.02457 0.01779 1.381 0.167
verb[T.t] -1.33202 2.46242 -0.541 0.589
wo[T.vs] 2.05098 1.89449 1.083 0.279
voc1_tvl:verb[T.t] 0.01354 0.02807 0.482 0.630
voc1_tvl:wo[T.vs] -0.02277 0.02207 -1.032 0.302
verb[T.t]:wo[T.vs] -2.22007 3.31623 -0.670 0.503
voc1_tvl:verb[T.t]:wo[T.vs] 0.02114 0.03799 0.556 0.578
Correlation of Fixed Effects:
(Intr) vc1_tv vr[T.] w[T.v] vc1_tvl:v[T.] vc1_tvl:w[T.] v[T.]:
voc1_tvl -0.992
verb[T.t] -0.639 0.634
wo[T.vs] -0.831 0.824 0.531
vc1_tvl:v[T.] 0.629 -0.634 -0.992 -0.522
vc1_tvl:w[T.] 0.799 -0.806 -0.511 -0.988 0.511
vr[T.]:[T.] 0.475 -0.471 -0.743 -0.571 0.737 0.564
v1_:[T.]:[T -0.464 0.468 0.733 0.574 -0.739 -0.581 -0.991
输出与我之前的输出不同,这里没有什么重要的(原文如此)。因此,我应该担心第一个(lme4)输出。我应该吗?
我正在阅读贝茨的观察
(https://cran.r-project.org/web/packages/lme4/vignettes/Theory.pdf)。
我会尝试不同的优化器,看看结果是否不同。
但是,如果结果在达到显着性方面与原始模型和使用 nloptwrap 模型优化的结果相同do不同,是否意味着即使是 lme4 也不可靠?
非常感谢所有勇敢(和善良)阅读这篇文章直到最后的人
最佳答案
统计建模的一条经验法则(来自 Harrell 的回归建模策略一书)是,您需要为每个要估计的参数提供 10-20 个观测值的有效样本量。对于二进制数据,“有效样本量”为 min(0 响应的数量,1 响应的数量),因此在最好的情况下,它将是观测值数量的一半(如果大多数观测值是 0 或大多数观测值是 1,则该值会更少) ,大约。你的情况是 60。你有 9 个参数(8 个固定效应加上随机效应方差),所以这正在插入它。也许您最感兴趣的是一组减少的交互?
glmer
默认值,其中 nAGQ= 1
),然后是具有更多正交点的高斯-埃尔米特求积(glmer
和 nAGQ>1
;我会尝试 nAGQ=10
>).glmer
(默认为拉普拉斯近似)比 PQL 做得更好一点,如上所述?lme4::convergence
有一些有关警告和故障排除的信息。根据我的经验,0.007 的梯度并没有那么糟糕,并且可能是误报。由于完全分离,您可能会遇到问题(即,问题在于您的数据,而不是拟合过程),但如果您处理这种可能性,然后尝试使用其他优化器拟合 glmer
模型 - 并且得到类似的结果 - 那么你可以忽略警告。更新
nAGQ=0
,这是错误的方向(您可能应该使用 nAGQ
>1 而不是默认的 nAGQ
=1)nAGQ
>1,那么我会担心。你可以试试source(system.file("utils", "allFit.R", package="lme4"))
allFit(original_fit)
在原始拟合上尝试所有不同的可用优化器。一般来说,具有最低 AIC/负对数似然的拟合是您最可以相信的......)- 那时我可能会说是的,你的模型对于数据来说太复杂了,所以你需要做一些更简单的事情- 但无论如何,我建议查看您的数据,看看是否存在任何令人惊讶的现象(例如,单个数据点、参与者或因素组合层面的极值/异常值) p>
关于r - 混合效应逻辑回归 : different results with MASS and lme4,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40813711/
[在此处输入图像描述][1]我正在努力弄清楚回归是否是我需要走的路线,以便解决我当前使用 Python 的挑战。这是我的场景: 我有一个 195 行 x 25 列的 Pandas Dataframe
我想训练回归模型(不是分类),其输出是连续数字。 假设我有输入变量 X,其范围在 -70 到 70 之间。我有输出变量 Y,其范围在 -5 到 5 之间。X 有 39 个特征,Y 有 16 个特征,每
我想使用神经网络逼近 sinc 函数。这是我的代码: import tensorflow as tf from keras.layers import Dense from keras.models
我对 postgres 表做了一些更改,我想将其恢复到以前的状态。没有数据库的备份。有办法吗?比如,postgres 会自动拍摄快照并将其存储在某个地方,还是原始数据会永远丢失? 最佳答案 默认情况下
我有大约 100 个 7x7 因变量矩阵(所以有 49 个因变量)。我的自变量是时间。我正在做一个物理项目,我应该通过求解 ODE 得到一个矩阵函数(矩阵的每个元素都是时间的函数)。我使用了 nump
我之前曾被告知——出于完全合理的原因——当结果变量为二元变量时(即是/否、真/假、赢/输等),不应运行 OLS 回归。但是,我经常阅读经济学/其他社会科学方面的论文,其中研究人员对二元变量运行 OLS
您好,我正在使用生命线包进行 Cox 回归。我想检查非二元分类变量的影响。有内置的方法吗?或者我应该将每个类别因子转换为一个数字?或者,在生命线中使用 kmf fitter,是否可以对每个因素执行此操
作为后续 this question ,我拟合了具有定量和定性解释变量之间相互作用的多元 Logistic 回归。 MWE如下: Type |z|) (Intercept) -0.65518
我想在单个动物园对象中的多对数据系列上使用 lm 执行滚动回归。 虽然我能够通过以下代码对动物园对象中的一对数据系列执行滚动回归: FunLm seat time(seat) seat fm
是否有一种简单的方法可以在 R 中拟合多元回归,其中因变量根据 Skellam distribution 分布? (两个泊松分布计数之间的差异)?比如: myskellam <- glm(A ~ B
包含各种特征和回归目标(称为 qval)的数据集用于训练 XGBoost 回归器。该值 qval 介于 0 和 1 之间,应具有以下分布: 到目前为止,还不错。但是,当我使用 xgb.save_mod
这有效: felm(y ~ x1 + x2 | fe1 + fe2 | 0 | , data = data) 我想要: fixedeffects = "fe1 + fe2" felm(y ~ x1
这有效: felm(y ~ x1 + x2 | fe1 + fe2 | 0 | , data = data) 我想要: fixedeffects = "fe1 + fe2" felm(y ~ x1
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。 关闭 7 年前。
我刚刚开始使用 R 进行统计分析,而且我还在学习。我在 R 中创建循环时遇到问题。我有以下案例,我想知道是否有人可以帮助我。对我来说,这似乎是不可能的,但对你们中的一些人来说,这只是小菜一碟。我有不同
是否可以在 sklearn 中使用或不使用(即仅使用截距)预测器来运行回归(例如逻辑回归)?这似乎是一个相当标准的类型分析,也许这些信息已经在输出中可用。 我发现的唯一相关的东西是sklearn.sv
假设我对一些倾斜的数据分布执行 DNN 回归任务。现在我使用平均绝对误差作为损失函数。 机器学习中的所有典型方法都是最小化平均损失,但对于倾斜来说这是不恰当的。从实际角度来看,最好尽量减少中值损失。我
我正在对公寓特征进行线性回归分析,然后预测公寓的价格。目前,我已经收集了我所在城市 13000 套公寓的特征。我有 23-25 个特征,我不确定在公寓价格预测中拥有如此多的特征是否正常。 我有以下功能
我是 ML 新手,对 catboost 有疑问。所以,我想预测函数值(例如 cos | sin 等)。我回顾了一切,但我的预测始终是直线 是否可能,如果可能,我该如何解决我的问题 我很高兴收到任何评论
我目前已经为二进制类实现了概率(至少我这么认为)。现在我想扩展这种回归方法,并尝试将其用于波士顿数据集。不幸的是,我的算法似乎被卡住了,我当前运行的代码如下所示: from sklearn impor
我是一名优秀的程序员,十分优秀!