gpt4 book ai didi

lightgbm - 在 Optuna 中抑制 LightGBM 警告

转载 作者:行者123 更新时间:2023-12-05 04:41:26 26 4
gpt4 key购买 nike

我在使用 Optuna 调整我的模型时遇到警告。请告诉我如何抑制这些警告?

[LightGBM] [Warning] feature_fraction is set=0.2, colsample_bytree=1.0 will be ignored. Current value: feature_fraction=0.2
[LightGBM] [Warning] min_data_in_leaf is set=5400, min_child_samples=20 will be ignored. Current value: min_data_in_leaf=5400
[LightGBM] [Warning] min_gain_to_split is set=13.203719815769512, min_split_gain=0.0 will be ignored. Current value: min_gain_to_split=13.203719815769512

最佳答案

我不熟悉 Optuna,但我在使用 Python/lightgbm 时遇到了这个问题。

自 v3.3.2 起,the parameters tuning page包括似乎已重命名、弃用或重复的参数。但是,如果您坚持设置/调整模型对象中指定的参数,则可以避免此警告。

from lightgbm import LGBMRegressor
params = LGBMRegressor().get_params()
print(params)

这些是您要设置的唯一参数。如果您希望能够包含所有参数,您可以执行如下操作。

from lightgbm import LGBMRegressor
lgr = LGBMRegressor()
params = lgr.get_params()
aliases = [
{'min_child_weight', 'min_sum_hessian_in_leaf'},
{'min_child_samples', 'min_data_in_leaf'},
{'colsample_bytree', 'feature_fraction'},
{'subsample', 'bagging_fraction'}
]
for alias in aliases:
if len(alias & set(params)) == 2:
arg = random.choice(sorted(alias))
params[arg] = None
lgr = LGBMRegressor(**params)

代码在似乎重复的每个参数对中设置了一个或另一个。现在,当您调用 lgr.fit(X, y) 时,您应该不会收到警告。

关于lightgbm - 在 Optuna 中抑制 LightGBM 警告,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/70093678/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com