gpt4 book ai didi

machine-learning - scikitlearn 如何实现线性搜索?

转载 作者:行者123 更新时间:2023-11-30 08:29:36 24 4
gpt4 key购买 nike

this section关于梯度提升的文档,它说

Gradient Boosting attempts to solve this minimization problem numerically via steepest descent: The steepest descent direction is the negative gradient of the loss function evaluated at the current model F_{m-1} which can be calculated for any differentiable loss function:

enter image description here

Where the step length \gamma_m is chosen using line search:

enter image description here

我理解线搜索的目的,但我不理解算法本身。我通读了source code ,但仍然没有点击。如果有解释,我们将不胜感激。

最佳答案

实现取决于初始化 GradientBoostingClassifier 实例时选择的损失函数(例如使用此函数,回归部分应该类似)。默认损失函数为'deviance'并实现了相应的优化算法here 。在_update_terminal_region函数中,仅一步实现了简单的牛顿迭代。

这是你想要的答案吗?

关于machine-learning - scikitlearn 如何实现线性搜索?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41228470/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com