- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我尝试手动编写 AIC 的公式。我想将它与 scikit learn 结合使用。为了测试我的编码是否正确,我比较了给定相同数据集的 statsmodels 的 AIC 值。但如果我比较模型 M1 和模型 M2,我的实现和 statsmodels 会产生不同的结果;不仅仅是在数字上,statsmodels AIC 更喜欢另一个模型而不是我的 AIC。
我使用手动实现的残差平方和并将其放入AIC公式中。 ols 是 scikit 的普通最小二乘估计器。索引 n 在数据集上运行,y_run(n) 是带有响应变量的第 n 个数据集,X_run(n) 是第 n 个输入训练数据集。最后一段代码是statsmodel的AIC,其中regr是statsmodels普通最小二乘估计器。
def rss(n):
return ((y_run(n)-ols(n).predict(X_run(n)))**2).sum()
def AIC (n):
return len(X_run(n))*np.log(rss(n)/len(X_run(n)))+2*p
def AIC_regr (n):
return regr(n).aic
你能看出我的手动实现有缺陷吗?
最佳答案
我认为这只是定义上的差异。
statsmodels 在 aic 的定义中使用对数似然,而不是 rss
。 statsmodels.tools.eval_measures
具有两种定义。
信息标准通常仅用于比较同一模型的不同版本,特别是不同数量的解释变量。在这种情况下,模型版本中不变的项通常会被删除。然而,statsmodels 在信息标准的计算中使用完整的对数似然定义。这还允许跨模型进行比较。
aic 定义的第二个问题是它是否除以观测值的数量。这也因统计包而异。
关于python-2.7 - 手动计算的 AIC 与 statsmodel AIC 不同,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56261765/
我尝试手动编写 AIC 的公式。我想将它与 scikit learn 结合使用。为了测试我的编码是否正确,我比较了给定相同数据集的 statsmodels 的 AIC 值。但如果我比较模型 M1 和模
在跨数据框的一个响应变量和多个解释变量之间应用模型后,我想按 AIC 分数对每个模型进行排名。我遇到了一个非常相似的问题,它正是我想做的。 Using lapply on a list of mode
假设我有以下数据: array([[0.88574245, 0.3749999 , 0.39727183, 0.50534724], [0.22034441, 0.81442653,
我正在尝试评估 R 中多个回归的模型拟合,但我遇到了一个我现在遇到过多次的问题:我的泊松回归的对数似然是无限的。 我使用的是非整数因变量(注意:我知道我在这方面做了什么),我想知道这是否是问题所在。但
我对 R 和 Python 相当陌生。我喜欢使用 Akaike 信息准则执行多元回归来选择变量并评估我的准则。 我编写了一些代码来使用 F 统计 P 值选择变量。该数据集包含房价信息 我计划将变量(即
考虑这个代码示例,根据 Akaike 准则从不同拟合高斯数量的数据中获得最佳拟合 MU1 = [1]; SIGMA1 = [2]; MU2 = [-3]; SIGMA2 = [1 ]; X = [mv
这是来自 ?lm 的一个非常简单的 lm 模型 ctl 46.17468 (LL1 -20.08824 (df=3) 从第一性原理重构: n -20.08828 这有点不对劲,还没发现毛病。 参
data <-c(88, 84, 85, 85, 84, 85, 83, 85, 88, 89, 91, 99, 104, 112, 126, 138, 146,151, 150, 148, 14
我正在尝试从具有不同的 ARIMA 估计中提取 AIC 和 BIC p & q 的组合 (p=0,1,2,3 并且 q=0,1.2,3)。我曾尝试使用以下代码,但未成功。 code: storage1
如何从 lm_robust 对象(包 estimatr)获取 AIC?我使用 lm_robust 是因为我想使用稳健的估计器来计算 SE。与 lm 函数不同,当您运行汇总函数并在 lm_robust
我有: from scipy import stats data = stats.gamma.rvs(2, loc=1.5, scale=2, size=100000) 所以我做了一个合适的 fitt
据我所知,Python中没有AIC包。因此,我尝试手动计算它以找到我的数据集中的最佳聚类数(我使用 K-means 进行聚类) 我遵循 Wiki 上的等式: AIC = 2k - 2ln(最大似然)
我想计算线性模型的 AIC 以比较它们的复杂性。我是这样做的: regr = linear_model.LinearRegression() regr.fit(X, y) aic_intercept_
我使用 MICE 包估算了数据。现在,我想展示基于汇总数据的 GLM 结果。 这就是我得出数据的方式: data.imputed <- mice(data, m=5, maxit = 50, meth
所以这是我的数据头, thickness grains resistivity 1 25.1 14.9 0.0270 2 368.4 58.1 0.0
我一直在尝试使用 biglm 在大型数据集(约 60,000,000 行)上运行线性回归。我想使用 AIC 进行模型选择。但是我发现在较小的数据集上使用 biglm 时,biglm 返回的 AIC 变
我已经用谷歌搜索了这个并找不到解决方案。 R 似乎在 AIC/BIC 计算方面存在问题。它会产生错误的结果。一个简单的例子如下所示: link = 'https://gist.githubuserco
我想知道是否可以从 GLMNet 获取 AIC 和 BIC。我发现 glmnet.cr 似乎能够做到这一点,但我的 react 是时间,而不是序数。我可以根据可能性自己计算它,但 glmnet 也不会
指定相同 AR(或 MA)模型由 R 中的 forecast 包中的函数 arima() 进行估计的不同方法不同的 BIC(贝叶斯信息准则)值。 为什么会发生这种情况? 考虑两种模型: (1) AR(
我尝试使用 R 重现一些 SAS 输出。我想重现的方法是: 使用混合模型对因子时间进行重复测量的两种方差分析(协方差矩阵 = CS,估计方法 = REML) 一切看起来都很好,除了 AIC .....
我是一名优秀的程序员,十分优秀!