gpt4 book ai didi

python - 为什么在softmax_cross_entropy_with_logits中将logit解释为 'unscaled log probabililty'?

转载 作者:行者123 更新时间:2023-11-30 09:28:51 30 4
gpt4 key购买 nike

在 tensorflow 文档(softmax_cross_entropy_with_logits)中,他们说“logits:未缩放的对数概率”。什么是“对数概率”?首先,我知道 'logits''标准化前的输出''score for class'

logits = tf.matmul(X,W) + b
hypothesis = tf.nn.softmax(logits)

如果我通过 tf.matmul(X,W) + b 得到 [1.5, 2.4, 0,7],则 [1.5, 2.4, 0,7]logits(score) 并且这是未缩放的。到这个阶段我还是能理解的。但是,我不明白为什么 [1.5, 2.4, 0.7]'logprobability'

最佳答案

如果您将 softmax 函数的输出解释为概率(正如我们喜欢做的那样),那么很容易看出“对数概率”来自:

softmax函数是

\exp{z_k}/\sum_i{\exp{z_i}},

用 z_i 作为“logits”的组成部分。分母只负责标准化,即它确保所有输出总和为 1(如果我们想将它们解释为一组互斥类的概率,这是有意义的)。因此,看看分子,softmax 函数的输出基本上就是 exp(z)。如果我们将其解释为概率,那么 z(“logits”)就是非归一化概率的对数。

关于python - 为什么在softmax_cross_entropy_with_logits中将logit解释为 'unscaled log probabililty'?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48483980/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com