gpt4 book ai didi

python - tensorflow softmax_cross_entropy_with_logits 和 sigmoid_cross_entropy_with_logits 的实现区别

转载 作者:太空宇宙 更新时间:2023-11-03 11:22:12 25 4
gpt4 key购买 nike

我最近遇到了 tensorflow softmax_cross_entropy_with_logits,但我无法弄清楚与 sigmoid_cross_entropy_with_logits 相比在实现上有什么区别。

最佳答案

我知道我回答的有点晚,但迟到总比不到好。所以我有完全相同的疑问,答案在 tensorflow 文档中。答案是,我引用:

softmax_cross_entropy_with_logits: Measures the probability error in discrete classification tasks in which the classes are mutually exclusive (each entry is in exactly one class). sigmoid_cross_entropy_with_logits: Measures the probability error in discrete classification tasks in which each class is independent and not mutually exclusive

编辑:我想我应该补充一点,虽然类是相互排斥的,但它们的概率不一定是。所需要的只是每一行标签都是一个有效的概率分布。 sparse_softmax_cross_entropy_with_logits 中的情况并非如此,其中 label 是仅包含真实类索引的向量。

我还添加了指向文档的链接。希望这个回答对您有所帮助。

关于python - tensorflow softmax_cross_entropy_with_logits 和 sigmoid_cross_entropy_with_logits 的实现区别,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40736440/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com