- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在 Kaggle 中执行泰坦尼克号案例的学习任务。
如果我手动分离数据或使用 cross_val_score 执行线性回归,我的预测精度会有所不同。逻辑回归也是如此。
示例。
- 线性回归。
手册
Algorithm = LinearRegression()
kf = KFold(dataset.shape[0], n_folds=3, random_state=1)
predictions = []
for train, test in kf:
train_predictors = (dataset[Predictors].iloc[train])
train_target = dataset['Survived'].iloc[train]
Algorithm.fit(train_predictors, train_target)
test_predictions = Algorithm.predict(dataset[Predictors].iloc[test])
predictions.append(test_predictions)
predictions = np.concatenate(predictions, axis=0)
print(predictions.shape[0])
realed = list(dataset.Survived)
predictions[predictions > 0.5] = 1
predictions[predictions <= 0.5] = 0
accuracy2 = sum(predictions[predictions == dataset["Survived"]]) / len(predictions)
print("Tochnost prognoza: ", accuracy2 * 100, " %")
结果 - 78.34%
交叉验证分数
scores=cross_val_score(LinearRegression(), dataset[Predictors], dataset["Survived"], cv=3)
print(scores.mean())
结果 - 37.5%
- 逻辑回归。
这里我有 26,15% 的手动功能和 78,78% 的 cross_val_score 功能。
为什么?
最佳答案
您的代码中有几处看起来非常错误。
您的准确度计算错误。
这一行:
accuracy2 = sum(predictions[predictions == dataset["Survived"]]) / len(predictions)
不计算准确性。它的作用是当你有正确的预测时,取你所做的预测的平均值。这没有多大意义;)。
不过,这很容易解决:
accuracy2 = sum(predictions == dataset["Survived"] / len(predictions)
线性回归实际上执行回归。
使用线性回归来执行分类任务并不是一个好主意。在(二元)分类中,您期望输出范围为 [0; 1](概率),而线性回归通常会给你一个无限的范围。
由于统计学家是线性回归的忠实粉丝,他们发明了逻辑回归,这实际上是对转换后的目标值的线性回归。
底线:使用逻辑回归(不是线性回归)进行分类。
评分方式不是你想象的那样。cross_val_score
采用一个scoring
参数。这里您没有指定它(所以它是None
),这意味着它将查找估计器的默认评分方法。 LinearRegression
的默认评分方法不是准确性。它是 R^2 系数。这与回归相关,而不是真正与您想要做的事情相关。
所以当你这样做时:
scores=cross_val_score(LinearRegression(), dataset[Predictors], dataset["Survived"], cv=3)
print(scores.mean())
您得到的是 3 倍交叉验证的平均 R^2 系数。
当您使用 LogisticRegression
执行此操作时,您将获得平均准确度,这正是您想要的。
第 1 点和第 2 点解释了使用 LogisticRegression
和 cross_val_score
在 LinearRegression
上获得的结果。
我还不确定第一个案例,如果我找到一个好的解释,我会更新我的帖子。我觉得这非常令人惊讶,因为您在计算准确性方面犯的错误总是低估结果。当然,除非这不是您运行的实际代码。
关于Python+SciKit -> 手动预测和 cross_val_score 预测的不同结果,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32160049/
我实现了自定义cross_val_score函数。但结果与使用 sklearn 的 cross_val_score 获得的结果不同。 modelType = SGDClassifier(random_
我想在 cross_val_score 函数中使用调整后的 Rsquare。我尝试使用 make_scorer 函数,但它不起作用。 from sklearn.cross_validation imp
在此:cross_val_score(GaussianNB(),特征,目标,cv=10) 我们是将数据随机分成 10 个还是按顺序进行? 最佳答案 这取决于您在 cv 参数中指定的内容。 如果自变量是
当我们将没有predict 方法的东西传递给cross_val_score 时,究竟计算了什么,就像这里 from sklearn.model_selection import cross_val_s
我希望 sklearn 函数的 cross_val_score 返回每个类的准确度,而不是所有类的平均准确度。 功能: sklearn.model_selection.cross_val_score(
我正在使用 Scikit-learn。我尝试使用简单的交叉验证程序和快速的cross_validation.cross_val_score来进行交叉验证。但我发现我得到了不同的数字。为什么? impo
这是可重现示例代码: from numpy import mean from sklearn.datasets import make_classification from sklearn.mode
我正在研究一个多元线性回归问题,并通过 R^2、MAE 和 cross_val_score() 评估其性能。我有一个大小为(1565,334)的feature_set和大小为(1565,1)的y1。这
我尝试计算准确性,但对 cross_val_score 给出的结果相当低这一事实感到困惑,而不是通过将预测结果与正确结果进行比较。 第一种计数方式,给出 [0.8033333333333333、0.7
由于该类的文档不是很清楚。我不明白我赋予它什么值(value)。 cross_val_score(estimator, X, y=None) 这是我的代码: clf = LinearSVC(rando
我正在使用 cross_val_score 来计算回归量的平均分数。这是一个小片段。 from sklearn.linear_model import LinearRegression from sk
我想使用嵌套 CV 方法从 SVC 中找到最佳参数: import numpy as np import pandas as pd import matplotlib.pyplot as plt %m
我正在使用 cross_val_score 方法评估 desicion_tree_regressor 预测模型。问题是,分数似乎是负数,我真的不明白为什么。 这是我的代码: all_depths =
我在 sci-kit 学习文档中找不到此信息。但根据我得到的数字,分数看起来不像是均方误差。 最佳答案 cross_val_score 调用您传入的估算器的 .score() 方法,返回的内容因估算器
我正在研究一个文本分类问题,我是这样设置的(为了简洁起见,我省略了数据处理步骤,但它们会生成一个名为 data 的数据框包含 X 和 y 列): import sklearn.model_select
我正在尝试在 keras 上做这个关于回归的小教程: http://machinelearningmastery.com/regression-tutorial-keras-deep-learning
我有一个二进制时间序列分类问题。 因为它是一个时间序列,我不能只train_test_split 我的数据。因此,我使用了此 link 中的对象 tscv = TimeSeriesSplit() ,
我正在尝试运行 kfold 交叉验证。但由于某种原因,它卡在这里,它不会从这里终止 accuracies = cross_val_score(estimator = classifier, X = X
我正在运行 RandomForestRegressor()。我使用 R 平方进行评分。为什么使用 .score 和 cross_val_score 会得到截然不同的结果?相关代码如下: X = df.
我正在 Kaggle 中执行泰坦尼克号案例的学习任务。 如果我手动分离数据或使用 cross_val_score 执行线性回归,我的预测精度会有所不同。逻辑回归也是如此。 示例。 - 线性回归。 手册
我是一名优秀的程序员,十分优秀!