gpt4 book ai didi

machine-learning - 一般来说,如何解释多标签分类器产生的概率?

转载 作者:行者123 更新时间:2023-11-30 09:54:01 25 4
gpt4 key购买 nike

我见过的大多数东西都只是使用最大概率,这看起来不错,但并没有给你任何信心的迹象。相对概率也应该很重要,对吧?让我解释一下:

对于二元分类器,假设您的类别是 A 和 B。

P(A) = 0.01、P(B) = 0.99 是非常强烈地表明“A”的分类结果。

P(A) = 0.6、P(B) = 0.4 是置信度较低的“A”分类。

一旦你将类别“C”加入其中,你就可以得到P(A) = 0.8,P(B) = 0.1,P(C) = 0.1,强“A”

但是,您还可以获得以下其中一项:

  1. P(A) = 0.50、P(B) = 0.25、P(C) = 0.25

  2. P(A) = 0.50、P(B) = 0.49、P(C) = 0.01

现在,第一个案例信心不足,但仍会出现“A”如果 max 是我唯一的标准,那么第二种情况将完全相同,但显然不是。

在情况 1 中,“A”对结果没有那么有信心,但除此之外没有其他可能。在情况 2 中,P(A) 仍然是 0.5,但它基本上与 P(B) 相同,这意味着我不应该真正相信观察结果是“A”

是否有一个函数可以捕捉这种相对置信度的概念?我一直在尝试想出一个解决方案,该解决方案不是一堆困惑的 if 语句,但还没有想出任何好的办法。

最佳答案

您所理解的可能是支持向量机的概念。在 SVM 分类器中,我们的目标是找到一个超平面,使它所分离的两个组中最接近的示例之间的距离最大化。有关详细信息,请查看维基百科或任何有关 SVM 的机器学习文本。在这种方法中,您可以对事物进行分类,以使边界具有最大的边距。

对于逻辑回归,我们使用Softmax函数,它不是score(i)/Sum(Score all)。它使用指数函数。这也最大化了概率之间的距离。

一般来说,分类算法的目标是给出答案,特别是对于可能不明确的情况。当然,您可以添加一个额外的属性来说明确切的概率是多少,但这通常不是主要目标。

关于machine-learning - 一般来说,如何解释多标签分类器产生的概率?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38399372/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com