- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
目标是检测并修复为什么我的 sklearn“摘要”实现之间的报告与 OLS
statsmodels 的结果不匹配。唯一匹配的是 beta 系数。
import pandas as pd
import numpy as np
from statsmodels.regression.linear_model import OLS
from sklearn import linear_model
from scipy.stats import t
class LinearRegression(linear_model.LinearRegression):
"""
LinearRegression class after sklearn's, but calculate t-statistics
and p-values for model coefficients (betas).
Additional attributes available after .fit()
are `t` and `p` which are of the shape (y.shape[1], X.shape[1])
which is (n_features, n_coefs)
This class sets the intercept to 0 by default, since usually we include it
in X.
"""
def __init__(self, *args, **kwargs):
if not "fit_intercept" in kwargs:
kwargs['fit_intercept'] = False
super(LinearRegression, self)\
.__init__(*args, **kwargs)
def fit(self, X, y, n_jobs=1):
self = super(LinearRegression, self).fit(X, y, n_jobs)
# std errors
uhat = (y-(X@self.coef_).ravel())
k = np.shape(X)[1]
s2 = (uhat.T@uhat)/(y.shape[0])
var = s2*np.linalg.inv(X.T@X)
self.se = np.sqrt(np.diag(var))
# T-Stat
self.t_stats = self.coef_/self.se
# p-values
self.df = y.shape[0] - k # -1 degrees of freedom: N minus number of parameters
self.p_values = 2*(t.sf(abs(self.t_stats),self.df))
# Rsquared
tss = (y-np.mean(y)).T@(y-np.mean(y))
rss = uhat.T@uhat
self.rsq = 1 - rss/tss
self.summary = pd.DataFrame({
"beta":self.coef_.reshape(1,-1).tolist()[0],
"se":self.se.reshape(1,-1).tolist()[0],
"t_stats":self.t_stats.reshape(1,-1).tolist()[0],
"p_values":self.p_values.reshape(1,-1).tolist()[0],
})
return self
在玩具数据集中运行函数,我们可以测试结果:
import statsmodels.api as sm
data = sm.datasets.longley.load_pandas()
# Estimate statsmodels OLS
model = OLS(endog=data.endog,exog=data.exog).fit()
# Estimate Sklearn with report like statsmodels OLS
model2 = LinearRegression(fit_intercept=False).fit(data.exog,np.array(data.endog))
model2.summary
我担心某些公式与正确的不匹配。
最佳答案
这里有一个类,您可以使用它来使用 Scikit-learn 获取线性回归模型摘要:
import numpy as np
import pandas as pd
from scipy.stats import t
from sklearn import linear_model
class LinearRegression(linear_model.LinearRegression):
def __init__(self, *args, **kwargs):
if not "fit_intercept" in kwargs:
self.with_intercept = True
kwargs['fit_intercept'] = True
else:
self.with_intercept = False
kwargs['fit_intercept'] = False
super(LinearRegression, self).__init__(*args, **kwargs)
def fit(self, X, y):
self = super(LinearRegression, self).fit(X, y)
y_pred = self.predict(X)
residuals = y - y_pred
residual_sum_of_squares = residuals.T @ residuals
if self.with_intercept:
coefficients = [coef for coef in self.coef_]
self.coefficients = [self.intercept_] + coefficients
p = len(X.columns) + 1 # plus one because an intercept is added
new_X = np.empty(shape=(len(X), p), dtype=float)
new_X[:, 0] = 1
new_X[:, 1:p] = X.values
else:
self.coefficients = self.coef_
p = len(X.columns)
new_X = X.values
# standard errors
sigma_squared_hat = residual_sum_of_squares / (len(X) - p)
var_beta_hat = np.linalg.inv(new_X.T @ new_X) * sigma_squared_hat
self.std_errors = [var_beta_hat[p_, p_] ** 0.5 for p_ in range(p)]
# t_values
self.t_values = np.array(self.coefficients)/self.std_errors
# p values
freedom_degree = y.shape[0] - X.shape[1]
self.p_values = 2*(t.sf(abs(self.t_values), freedom_degree))
# summary
self.summary = pd.DataFrame()
self.summary['Coefficients'] = self.coefficients
self.summary['Standard errors'] = self.std_errors
self.summary['t values'] = self.t_values
self.summary['p values'] = self.p_values
return self
这是您可以尝试类(class)并拟合模型的方式:
import statsmodels.api as sm
data = sm.datasets.longley.load_pandas()
X = pd.DataFrame(data.exog)
y = np.array(data.endog)
# in case you want to ignore the intercept include fit_intercept=False as a parameter
model_linear_regression = LinearRegression().fit(X, y)
model_linear_regression.summary
结果:
Coefficients Standard errors t values p values
0 -3.482259e+06 890420.379 -3.911 0.003
1 1.506190e+01 84.915 0.177 0.863
2 -3.580000e-02 0.033 -1.070 0.310
3 -2.020200e+00 0.488 -4.136 0.002
4 -1.033200e+00 0.214 -4.822 0.001
5 -5.110000e-02 0.226 -0.226 0.826
6 1.829151e+03 455.478 4.016 0.002
您可以训练一个 OLS 模型,在您想要添加截距/常量的情况下进行必要的更改,如下所示:
with_intercept = True
if with_intercept:
p = len(X.columns) + 1 # plus one because an intercept is added
new_X = np.empty(shape=(len(X), p), dtype=float)
new_X[:, 0] = 1
new_X[:, 1:p] = X.values
model_statsmodel = sm.OLS(endog=y, exog=new_X).fit()
else:
model_statsmodel = sm.OLS(endog=y, exog=X).fit()
最后,您可以通过以下方式验证结果是否相同:
assert np.allclose(np.round(model_statsmodel.params, 3), np.round(model_linear_regression.coefficients, 3))
assert np.allclose(np.round(model_statsmodel.bse, 3), np.round(model_linear_regression.std_errors, 3))
assert np.allclose(np.round(model_statsmodel.tvalues, 3), np.round(model_linear_regression.t_values, 3))
# the following assertion might return False, due to a difference in the number of decimals
assert np.allclose(np.round(model_statsmodel.pvalues, 3), np.round(model_linear_regression.p_values, 3))
希望对您有所帮助:)
关于python - sklearn 和 statsmodels OLS 之间摘要的区别,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/74412143/
我知道有几个类似的问题被问到,但我的问题仍然没有得到解答。 问题来了。我使用命令 python3 -m pip3 install -U scikit-learn 来安装 sklearn、numpy 和
_train_weather.values : [[ 0.61818182 0.81645199 0.6679803 ..., 0. 0. 1.
如果我有一个数据集X及其标签Y,那么我将其分为训练集和测试集,scle为0.2,并使用随机种子进行洗牌: 11 >>>X.shape (10000, 50,50) train_data, test_d
首先我查看了所有相关问题。给出了非常相似的问题。 所以我遵循了链接中的建议,但没有一个对我有用。 Data Conversion Error while applying a function to
这里有两种标准化方法: 1:这个在数据预处理中使用:sklearn.preprocessing.normalize(X,norm='l2') 2:分类方法中使用另一种方法:sklearn.svm.Li
所以刚看了一个教程,作者不需要import sklearn使用时 predict anaconda 环境中pickled 模型的功能(安装了sklearn)。 我试图在 Google Colab 中重
我想评估我的机器学习模型。我使用 roc_auc_score() 计算了 ROC 曲线下的面积,并使用 sklearn 的 plot_roc_curve() 函数绘制了 ROC 曲线。在第二个函数中,
我一直在寻找此信息,但在任何地方都找不到,所以这是我的镜头。 我是Python 2.7的初学者,我学习了一个模型,感谢cPickle我保存了它,但现在我想知道是否可以从另一个设备(没有sklearn库
>>> import sklearn.model_selection.train_test_split Traceback (most recent call last): File "", li
在阅读有关使用 python 的 LinearDiscriminantAnalysis 的过程中,我有两种不同的方法来实现它,可在此处获得, http://scikit-learn.org/stabl
我正在使用 sklearn,我注意到 sklearn.metrics.plot_confusion_matrix 的参数和 sklearn.metrics.confusion_matrix不一致。 p
我正在构建一个多标签文本分类程序,我正在尝试使用 OneVsRestClassifier+XGBClassifier 对文本进行分类。最初,我使用 Sklearn 的 Tf-Idf 矢量化来矢量化文本
我想看看模型是否收敛于我的交叉验证。我如何增加或减少 sklearn.svm.SVC 中的时代? 目前: SVM_Model = SVC(gamma='auto') SVM_Model.fit(X_t
有人可以帮助我吗?我很难知道它们之间的区别 from sklearn.model_selection import train_test_split from sklearn.cross_valida
我需要提取在 sklearn.ensemble.BaggingClassifier 中训练的每个模型的概率。这样做的原因是为了估计 XGBoostClassifier 模型的不确定性。 为此,我创建了
无法使用 scikit-learn 0.19.1 导入 sklearn.qda 和 sklearn.lda 我得到: 导入错误:没有名为“sklearn.qda”的模块 导入错误:没有名为“sklea
我正在尝试在 google cloud ai 平台上创建一个版本,但找不到 impute 模块 No module named 'sklearn.impute._base; 'sklearn.impu
我在 PyQt5 中编写了一个 GUI,其中包括以下行 from sklearn.ensemble import RandomForestClassifier 。 遵循this answer中的建议,
我正在做一个 Kaggle 比赛,需要输入一些缺失的数据。我安装了最新的Anaconda(4.5.4)具有所有相关依赖项(即 scikit-learn (0.19.1) )。 当我尝试导入模块时,出现
在安装了所需的模块后,我正在尝试将imblearn导入到我的Python笔记本中。但是,我收到以下错误:。。附加信息:我使用的是一个用Visual Studio代码编写的虚拟环境。。我已经确定venv
我是一名优秀的程序员,十分优秀!