gpt4 book ai didi

python - MXNet 中的 CrossEntropy 和 NegativeLogLikelihood 有什么区别?

转载 作者:太空宇宙 更新时间:2023-11-04 02:23:44 24 4
gpt4 key购买 nike

我正在尝试使用 mxnet.metric 来评估我的带有对数损失指标的分类模型模块。

我遇到了两个类:CrossEntropyNegativeLogLikelihood它们具有相同的定义和非常相似的实现。两者计算指标值的核心代码相同:

self.sum_metric += (-numpy.log(prob + self.eps)).sum()

如果它们本质上是相同的指标,那么在库中维护这两个函数的目的是什么?哪个指标更适合二分类和多分类?

最佳答案

其实这些东西不仅在 MXNet 上,整体上都没有太大区别。阅读此 Quora 以获得更多直觉:https://www.quora.com/What-are-the-differences-between-maximum-likelihood-and-cross-entropy-as-a-loss-function

至于在 MXNet 中用于多类分类的是什么,那么在大多数示例中我看到人们使用 SoftmaxCrossEntropyLoss .请在此处查看示例:https://gluon.mxnet.io/chapter02_supervised-learning/softmax-regression-gluon.html

关于python - MXNet 中的 CrossEntropy 和 NegativeLogLikelihood 有什么区别?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50970073/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com