gpt4 book ai didi

algorithm - HMM 正向算法中的下溢

转载 作者:塔克拉玛干 更新时间:2023-11-03 02:46:24 26 4
gpt4 key购买 nike

我正在为 HMM 实现前向算法,以计算给定 HMM 发出给定观察序列的概率。我希望我的算法对下溢具有鲁棒性。我不能在对数空间中工作,因为正向算法需要概率的乘法和加法。避免下溢的最佳方法是什么?

我已经阅读了一些关于此的资料,但我得到的最好建议是在每个时间步缩放概率 Section 6 Here .在算法结束时,您将不会得到您想要的(观察序列的)确切概率。此外,除非我弄错了,否则如果按照上述引用中的建议缩放每个时间步长的概率,则无法对来自两个不同 HMM 的给定观察序列的概率进行有意义的比较(以确定哪个一个更有可能输出序列)。有什么建议吗?

最佳答案

在引用文献末尾的等式 32 中,您将每个概率值 alpha_t(i) 乘以 C_t。所以最后你将最终概率乘以所有 C_t 的乘积。您可以通过跟踪 log(C_t) 的总和来跟踪所有这些。然后在最后你可以计算出 log(alpha_t(i)) - SUM_(j <= t)log(C_j) 这会给你最终 alpha_t(i) 或 log(SUM_t alpha_t(i) 的对数概率) - SUM_(j <= t)log(C_j) 这将为您提供整个序列的对数概率。

关于algorithm - HMM 正向算法中的下溢,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13391625/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com