gpt4 book ai didi

python - 如何控制子采样以使 xgb.cv 和 cross_validate 产生相同的结果?

转载 作者:太空宇宙 更新时间:2023-11-03 21:32:06 25 4
gpt4 key购买 nike

xgb.cvsklearn.model_selection.cross_validate 即使我设置了相同的种子/随机状态并且确保两者都不会产生相同的平均训练/测试误差方法使用相同的折叠。底部的代码可以重现我的问题。 (默认情况下提前停止处于关闭状态)。

我发现这个问题是由 subsample 参数引起的(如果该参数设置为 1,两种方法都会产生相同的结果),但我找不到一种方法使这两种方法在同一个中进行子采样方式。除了如底部代码所示设置seed/random_state之外,我还尝试显式添加:

import random
random.seed(1)
np.random.seed(1)

在我的文件开头,但这也不能解决我的问题。有什么想法吗?

import numpy as np
import xgboost as xgb
from xgboost import XGBClassifier
from sklearn.model_selection import cross_validate, StratifiedKFold

X = np.random.randn(100,20)
y = np.random.randint(0,2,100)
dtrain = xgb.DMatrix(X, label=y)

params = {'eta':0.3,
'max_depth': 4,
'gamma':0.1,
'silent': 1,
'objective': 'binary:logistic',
'seed': 1,
'subsample': 0.8
}

cv_results = xgb.cv(params, dtrain, num_boost_round=99, seed=1,
folds=StratifiedKFold(5, shuffle=False, random_state=1),
early_stopping_rounds=10)
print(cv_results, '\n')

xgbc = XGBClassifier(learning_rate=0.3,
max_depth=4,
gamma=0.1,
silent = 1,
objective = 'binary:logistic',
subsample = 0.8,
random_state = 1,
n_estimators=len(cv_results))
scores = cross_validate(xgbc, X, y,
cv=StratifiedKFold(5, shuffle=False, random_state=1),
return_train_score=True)
print('train-error-mean = {} test-error-mean = {}'.format(
1-scores['train_score'].mean(), 1-scores['test_score'].mean()))

输出:

   train-error-mean  train-error-std  test-error-mean  test-error-std
0 0.214981 0.030880 0.519173 0.129533
1 0.140039 0.018552 0.549549 0.034696
2 0.105100 0.017420 0.510501 0.040517
3 0.092474 0.012587 0.450977 0.075866

train-error-mean = 0.06994061572120636 test-error-mean = 0.4706015037593986

子样本设置为 1 时的输出:

   train-error-mean  train-error-std  test-error-mean  test-error-std
0 0.180043 0.013266 0.491504 0.093246
1 0.117381 0.021328 0.488070 0.097733
2 0.074972 0.030605 0.530075 0.091446
3 0.044907 0.032232 0.519073 0.130802
4 0.032438 0.021816 0.481027 0.080622

train-error-mean = 0.032438271604938285 test-error-mean = 0.4810275689223057

最佳答案

我确实知道 LGBM 的情况,但从 XGB 代码 ( here ) 的快速代码来看,它似乎有类似的行为,所以我认为答案是相关的。

诀窍在于尽早停止。 native xgb.cv 定义了一次迭代,在 sklearn 中,平均 CV 分数(或类似于平均值的东西,我现在忘记了:))达到稳定水平每个折叠中的交叉验证模型都是独立训练的,因此早期停止发生在不同折叠的不同迭代上。

因此,如果您想获得相同的结果,请禁用提前停止(这是有问题的,因为您可能会过度拟合或拟合不足,而您却没有意识到)。如果您想使用提前停止 - 由于实现的差异,无法获得相同的结果

关于python - 如何控制子采样以使 xgb.cv 和 cross_validate 产生相同的结果?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53460442/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com