gpt4 book ai didi

lightgbm - Jupyter 中的 LightGBM 未打印训练日志

转载 作者:行者123 更新时间:2023-12-05 07:03:32 39 4
gpt4 key购买 nike

我正在尝试在 Macbook 上训练一个简单的 LightGBM 模型,但即使将 verbose 参数设置为 1(甚至大于 1),它也不会打印任何日志

param = {'num_leaves':50, 'num_trees':500, 'learning_rate':0.01, 'feature_fraction':1.0, 'tree_learner': 'serial', 'objective':'cross_entropy', 'verbose' : 1, 'metric':'kullback_leibler', 'is_training_metric':True}
model = lgb.train(param, train_data_lgbm)

我还根据 Github 上的另一条建议将 is_training_metric 更改为 True。这也没有导致整改。有人可以帮助解决我可能遗漏的问题吗?

编辑:我在 Jupyter notebook 中运行这段代码。当我在终端上尝试同样的事情时,它成功了。
有人可以帮忙解决为什么我在 Jupyter notebook 上看不到日志吗?

最佳答案

我不知道你想要什么样的日志,但就我而言(Colab 上的 lightbgm 2.2.3 而不是 Jupiter notebook),通过向训练方法添加 valid_sets 参数,我是能够产生如下所示的对数损失。

model = lgb.train(param, 
train_data_lgbm,
valid_sets=[train_data_lgbm])

[1] training's xentropy: 0.606795.
[2] training's xentropy: 0.579697.
[3] training's xentropy: 0.513748.
[4] training's xentropy: 0.494762.
....

如果你想产生一个logloss用于评估,你可以通过以下方式显示它。

eval_data_lgb = lgb.Dataset(X_test, y_test, reference=train_data_lgbm)
model = lgb.train(param,
train_data_lgbm,
valid_sets=[train_data_lgbm,
eval_data_lgb])

[1] training's xentropy: 0.606795 valid_1's xentropy: 0.60837.
[2] training's xentropy: 0.579697 valid_1's xentropy: 0.582659.
[3] training's xentropy: 0.513748 valid_1's xentropy: 0.517523.
[4] training's xentropy: 0.494762 valid_1's xentropy: 0.499277.
....

关于lightgbm - Jupyter 中的 LightGBM 未打印训练日志,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63171740/

39 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com