gpt4 book ai didi

classification - 如何解读weka分类?

转载 作者:行者123 更新时间:2023-12-01 23:20:07 26 4
gpt4 key购买 nike

我们如何使用朴素贝叶斯解释 weka 中的分类结果?

平均值、标准偏差、权重总和和精度是如何计算的?

kappa 统计量、平均绝对误差、均方根误差等如何计算?

混淆矩阵的解释是什么?

最佳答案

下面是朴素贝叶斯分类器的一些示例输出,使用 10 倍交叉验证。那里有很多信息,您应该关注什么取决于您的应用程序。我将在下面解释一些结果,以帮助您入门。

=== Stratified cross-validation ===
=== Summary ===

Correctly Classified Instances 71 71 %
Incorrectly Classified Instances 29 29 %
Kappa statistic 0.3108
Mean absolute error 0.3333
Root mean squared error 0.4662
Relative absolute error 69.9453 %
Root relative squared error 95.5466 %
Total Number of Instances 100

=== Detailed Accuracy By Class ===

TP Rate FP Rate Precision Recall F-Measure ROC Area Class
0.967 0.692 0.686 0.967 0.803 0.709 0
0.308 0.033 0.857 0.308 0.453 0.708 1
Weighted Avg. 0.71 0.435 0.753 0.71 0.666 0.709

=== Confusion Matrix ===

a b <-- classified as
59 2 | a = 0
27 12 | b = 1

正确和错误分类的实例显示正确和错误分类的测试实例的百分比。原始数字显示在混淆矩阵中,其中 ab 代表类标签。这里有 100 个实例,因此百分比和原始数字相加,aa + bb = 59 + 12 = 71,ab + ba = 27 + 2 = 29。

正确分类实例的百分比通常称为准确性或样本准确性。作为性能估计,它有一些缺点(没有机会纠正,对类别分布不敏感),因此您可能需要查看其他一些数字。 ROC 面积,或 ROC 曲线下的面积,是我首选的衡量标准。

Kappa 是分类与真实类别之间一致性的机会校正度量。它的计算方法是将偶然预期的一致性与观察到的一致性相除,然后除以最大可能的一致性。大于 0 的值意味着您的分类器做得比偶然更好(确实应该如此!)。

错误率用于数值预测而不是分类。在数值预测中,预测不仅仅是正确或错误,误差也有大小,这些度量反射(reflect)了这一点。

希望这能让您开始。

关于classification - 如何解读weka分类?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/2903933/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com