gpt4 book ai didi

performance - 实现最速上升以优化概率

转载 作者:塔克拉玛干 更新时间:2023-11-03 06:02:10 24 4
gpt4 key购买 nike

我想重新实现一种涉及概率优化的方法。我得到的笔记包括梯度 w.r.t 的计算。该参数,以及注释“推导在 [0,1] 中有一个固定点,我们使用最速上升”。

我搜索了有关实现它的提示并找到了 thisWikipedia entry on hill climbing . (两者都没有给出非常具体的建议。)

我认为将它与二进制搜索放在一起并计划以以下方式(伪代码)实现它是个好主意:

steepest_ascent(param, min_itvl, max_itvl):
if (max_itvl - min_itvl < 0.01):
return param
d = gradient(param)
if (d == 0):
return param
if (d > 0):
return steepest_ascent((param + max_itvl) / 2, param, max_itvl)
if (d < 0):
return steepest_ascent((min_itvl + param) / 2, min_itvl, param)

整个事情是迭代过程的一部分,所以它会被这样调用(因为它是间隔为 [0,1] 的概率):

 param_new = steepest_ascent(param_old, 0, 1)

这里有什么明显可以改进的地方吗?

最佳答案

您已经实现了 bisection method ,这不同于 gradient ascent . (I take it your function is concave?) To do gradient ascent, update param = param + alpha * gradient(param) repeatedly for some suitably chosen alpha > 0 (too small and the computation will take a长时间,太大,它将永远运行,永远不会收敛),直到满足一些收敛标准。

关于performance - 实现最速上升以优化概率,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16872678/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com