- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
这是可重现示例代码:
from numpy import mean
from sklearn.datasets import make_classification
from sklearn.model_selection import cross_validate
from sklearn.model_selection import StratifiedShuffleSplit
from sklearn.ensemble import RandomForestClassifier
from sklearn.metrics import balanced_accuracy_score
# define dataset
X, y = make_classification(n_samples=1000, weights = [0.3,0.7], n_features=100, n_informative=75, random_state=0)
# define the model
model = RandomForestClassifier(n_estimators=10, random_state=0)
# evaluate the model
n_splits=10
cv = StratifiedShuffleSplit(n_splits, random_state=0)
n_scores = cross_validate(model, X, y, scoring='balanced_accuracy', cv=cv, n_jobs=-1, error_score='raise')
# report performance
print('Accuracy: %0.4f' % (mean(n_scores['test_score'])))
bal_acc_sum = []
for train_index, test_index in cv.split(X,y):
model.fit(X[train_index], y[train_index])
bal_acc_sum.append(balanced_accuracy_score(model.predict(X[test_index]),y[test_index]))
print(f"Accuracy: %0.4f" % (mean(bal_acc_sum)))
结果:
Accuracy: 0.6737
Accuracy: 0.7113
我自己计算的准确度结果总是高于交叉验证给我的结果。但它应该是一样的还是我遗漏了什么?相同的指标,相同的拆分(KFold 带来相同的结果),相同的固定模型(其他模型表现相同),相同的随机状态,但结果不同?
最佳答案
这是因为,在您的手动计算中,您翻转了 balanced_accuracy_score
中参数的顺序,这很重要 - 它应该是 (y_true, y_pred)
( docs ) .
改变这个,你的手动计算变成:
bal_acc_sum = []
for train_index, test_index in cv.split(X,y):
model.fit(X[train_index], y[train_index])
bal_acc_sum.append(balanced_accuracy_score(y[test_index], model.predict(X[test_index]))) # change order of arguments here
print(f"Accuracy: %0.4f" % (mean(bal_acc_sum)))
结果:
Accuracy: 0.6737
和
import numpy as np
np.all(bal_acc_sum==n_scores['test_score'])
# True
关于python - 为什么 cross_val_score 和我手动计算的不一样?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/65848571/
我实现了自定义cross_val_score函数。但结果与使用 sklearn 的 cross_val_score 获得的结果不同。 modelType = SGDClassifier(random_
我想在 cross_val_score 函数中使用调整后的 Rsquare。我尝试使用 make_scorer 函数,但它不起作用。 from sklearn.cross_validation imp
在此:cross_val_score(GaussianNB(),特征,目标,cv=10) 我们是将数据随机分成 10 个还是按顺序进行? 最佳答案 这取决于您在 cv 参数中指定的内容。 如果自变量是
当我们将没有predict 方法的东西传递给cross_val_score 时,究竟计算了什么,就像这里 from sklearn.model_selection import cross_val_s
我希望 sklearn 函数的 cross_val_score 返回每个类的准确度,而不是所有类的平均准确度。 功能: sklearn.model_selection.cross_val_score(
我正在使用 Scikit-learn。我尝试使用简单的交叉验证程序和快速的cross_validation.cross_val_score来进行交叉验证。但我发现我得到了不同的数字。为什么? impo
这是可重现示例代码: from numpy import mean from sklearn.datasets import make_classification from sklearn.mode
我正在研究一个多元线性回归问题,并通过 R^2、MAE 和 cross_val_score() 评估其性能。我有一个大小为(1565,334)的feature_set和大小为(1565,1)的y1。这
我尝试计算准确性,但对 cross_val_score 给出的结果相当低这一事实感到困惑,而不是通过将预测结果与正确结果进行比较。 第一种计数方式,给出 [0.8033333333333333、0.7
由于该类的文档不是很清楚。我不明白我赋予它什么值(value)。 cross_val_score(estimator, X, y=None) 这是我的代码: clf = LinearSVC(rando
我正在使用 cross_val_score 来计算回归量的平均分数。这是一个小片段。 from sklearn.linear_model import LinearRegression from sk
我想使用嵌套 CV 方法从 SVC 中找到最佳参数: import numpy as np import pandas as pd import matplotlib.pyplot as plt %m
我正在使用 cross_val_score 方法评估 desicion_tree_regressor 预测模型。问题是,分数似乎是负数,我真的不明白为什么。 这是我的代码: all_depths =
我在 sci-kit 学习文档中找不到此信息。但根据我得到的数字,分数看起来不像是均方误差。 最佳答案 cross_val_score 调用您传入的估算器的 .score() 方法,返回的内容因估算器
我正在研究一个文本分类问题,我是这样设置的(为了简洁起见,我省略了数据处理步骤,但它们会生成一个名为 data 的数据框包含 X 和 y 列): import sklearn.model_select
我正在尝试在 keras 上做这个关于回归的小教程: http://machinelearningmastery.com/regression-tutorial-keras-deep-learning
我有一个二进制时间序列分类问题。 因为它是一个时间序列,我不能只train_test_split 我的数据。因此,我使用了此 link 中的对象 tscv = TimeSeriesSplit() ,
我正在尝试运行 kfold 交叉验证。但由于某种原因,它卡在这里,它不会从这里终止 accuracies = cross_val_score(estimator = classifier, X = X
我正在运行 RandomForestRegressor()。我使用 R 平方进行评分。为什么使用 .score 和 cross_val_score 会得到截然不同的结果?相关代码如下: X = df.
我正在 Kaggle 中执行泰坦尼克号案例的学习任务。 如果我手动分离数据或使用 cross_val_score 执行线性回归,我的预测精度会有所不同。逻辑回归也是如此。 示例。 - 线性回归。 手册
我是一名优秀的程序员,十分优秀!