gpt4 book ai didi

autoencoder - 为什么 p(z) 在变分自动编码器中是正态高斯分布?

转载 作者:行者123 更新时间:2023-12-04 02:50:08 30 4
gpt4 key购买 nike

在变分自编码器中,目标函数有两项,一项使输入和输出 x 相同,另一项是正则化,q(z) 和 p(z) 接近 KL 散度。
我不明白的是为什么我们可以假设 p(z)~Normal Gaussian 具有 0 均值和 1 方差?

为什么不说..方差小于 1?以便在隐藏层中用更窄的高斯浓缩更多信息?

谢谢

最佳答案

如果网络足够强大,可以合成复杂的函数,那么先验的形状应该——理论上——在很大程度上是不受影响的。在您将高斯方差作为先验的特定情况下,网络可以通过缩放后验分布 Q(z|X) 的相关统计数据并适本地重新缩放下一层的采样来轻松适应不同的方差。网络。生成的网络将具有与前一个完全相同的行为(和损失)。因此,先验高斯方差的作用只是固定潜在空间的度量单位。该主题在 Variational Autoencoders 上的优秀教程中进行了讨论Doersh(第 2.4.3 节);你可能也有兴趣看看我的blog .

关于autoencoder - 为什么 p(z) 在变分自动编码器中是正态高斯分布?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45935836/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com