- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我对数据集执行了岭回归模型(链接到数据集:https://www.kaggle.com/c/house-prices-advanced-regression-techniques/data)如下:
from sklearn.linear_model import Ridge
from sklearn.model_selection import train_test_split
y = train['SalePrice']
X = train.drop("SalePrice", axis = 1)
X_train, X_test, y_train, y_test = train_test_split(X,y,test_size=0.30)
ridge = Ridge(alpha=0.1, normalize=True)
ridge.fit(X_train,y_train)
pred = ridge.predict(X_test)
我使用 sklearn 的度量库计算了 MSE
from sklearn.metrics import mean_squared_error
mean = mean_squared_error(y_test, pred)
rmse = np.sqrt(mean_squared_error(y_test,pred)
我得到的 MSE = 554084039.54321
和 RMSE = 21821.8
的值非常大,我想了解我的实现是否正确。
最佳答案
您的 RMSE
实现是正确的,当您取 sklearn 的 mean_squared_error
的平方根时很容易验证这一点。
不过,我认为您缺少一个右括号,确切地说:
rmse = np.sqrt(mean_squared_error(y_test,pred)) # the last one was missing
由于模型无法很好地模拟变量和目标之间的关系,因此您的 MSE 较高。请记住,每个错误都是 2 的次方,因此价格下降 1000
会使值(value)飙升至 1000000
。
您可能想用自然对数 (numpy.log
) 修改价格并将其转换为对数刻度,这是一种常见的做法,尤其是对于这个问题(我假设您正在做 House Prices: Advanced Regression Techniques ) ,请参阅可用内核以获取指导。使用这种方法,您不会获得如此大的值(value)。
最后但同样重要的是,检查 Mean Absolute Error 以查看您的预测并不像看起来那么糟糕。
关于python - 如何计算 Ridge 回归模型的 RMSE,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54613144/
使用 seaborn 0.11,我想绘制一个 seaborn ridge plot 我想在单个图中绘制磁谱数据。所以 y 轴只计算地 block 的数量,x 轴使用 数据。这是我所期望的示例。 这些是
使用 seaborn 0.11,我想绘制一个 seaborn ridge plot 我想在单个图中绘制磁谱数据。所以 y 轴只计算地 block 的数量,x 轴使用 数据。这是我所期望的示例。 这些是
我想知道有没有办法在 R 中输出岭回归的摘要?它是 lm.ridge{MASS} 函数的结果。 对于标准线性模型,您只需执行summary(lm_model),但是岭回归模型呢?感谢您的帮助。 最佳答
我正在尝试使用 lm.ridge 方法执行岭回归。我的问题是如何获得拟合模型的系数?我从调用中得到不同的结果: 模型$coef 系数(模型) 哪个是正确的?另外,为什么我从调用中得到不同的结果: co
我是机器学习的初学者。我正在使用 IDLE spy 程序以及这个 Python 版本: Python 3.4.3 |Anaconda 2.3.0 (64-bit)| (default, Mar 6
我对数据集执行了岭回归模型(链接到数据集:https://www.kaggle.com/c/house-prices-advanced-regression-techniques/data)如下: f
在 OLS 形式的 StatsModels 中,results.summary 显示回归结果的汇总(例如 AIC、BIC、R 平方、...) 有什么办法可以在 sklearn.linear_model
这段代码: from sklearn.pipeline import make_pipeline from sklearn.preprocessing import StandardScaler fr
我有一个包含 47 个样本的小数据集。我正在运行具有 2 个特征的线性回归。 运行 LinearRegression 后,我运行了 Ridge(带有下垂)。我希望它能够快速收敛,并返回与计算求解正规方
我正在尝试使用样本权重数组运行简单的 Sklearn Ridge 回归。X_train 是一个约 200k x 100 的二维 Numpy 数组。当我尝试使用 sample_weight 选项时出现内
我有一个在 Linux 上创建的 ISO,其中包含用于可引导 livecd 系统的文件。 ISO 使用 Rock Ridge 来保留 linux 权限。 我需要在 Windows 系统上修改这个 IS
scikit-learn Ridge 回归是否在正则化项中包含截距系数,如果是,是否有一种方法可以在不对截距进行正则化的情况下运行岭回归? 假设我拟合岭回归: from sklearn import
因此,弹性网络应该是岭回归(L2 正则化)和 lasso(L1 正则化)之间的混合体。然而,似乎即使 l1_ratio 为 0,我也没有得到与 ridge 相同的结果。我知道岭使用梯度下降,弹性网使用
当 alpha 参数接近于零时,Tikhonov(脊)成本等于最小二乘成本。 scikit-learn docs about the subject 上的所有内容表示相同。所以我期待 sklearn.
我正在寻找一种方法来找到图像中的脊(局部最大值)并将它们作为脊数组返回(其中脊是定义脊的点的向量)。也就是说,一种行为与 findContours 完全相同的方法(它找到轮廓并将它们作为定义轮廓的向量
我用大量数据训练了脊分类器,使用 tfidf vecotrizer 对数据进行矢量化处理,它曾经运行良好。但现在我面临一个错误 'max_df corresponds to = 5 to be con
我试图创建一个循环来找出装有 Ridge 回归模型的波士顿住房数据集的训练集和测试集的准确度分数的变化。 这是 for 循环: for i in range(1,20): Ridge(
我目前正在使用 sklearn 的 Ridge 分类器,并希望将此分类器与来自 sklearn 和其他库的分类器集成。为了做到这一点,最好提取给定输入属于类别列表中每个类别的概率。目前,我正在使用 m
我在计算不合理的 lambda 序列时遇到了 glmnet 中的脊 cv 问题。我正在使用完全相同的数据通过 glmnet 运行岭和套索回归。套索很好,但岭不是。 ridge.cv range( l
对于我的回归问题,我使用 scikit-learn 的 GridSearchCV 来获取最佳 alpha 值,并在我的估计器(Lasso、Ridge、ElasticNet)中使用该 alpha 值。我
我是一名优秀的程序员,十分优秀!