- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章使用keras实现Precise, Recall, F1-socre方式由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
实现过程 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
|
from
keras
import
backend as K
def
Precision(y_true, y_pred):
"""精确率"""
tp
=
K.
sum
(K.
round
(K.clip(y_true
*
y_pred,
0
,
1
)))
# true positives
pp
=
K.
sum
(K.
round
(K.clip(y_pred,
0
,
1
)))
# predicted positives
precision
=
tp
/
(pp
+
K.epsilon())
return
precision
def
Recall(y_true, y_pred):
"""召回率"""
tp
=
K.
sum
(K.
round
(K.clip(y_true
*
y_pred,
0
,
1
)))
# true positives
pp
=
K.
sum
(K.
round
(K.clip(y_true,
0
,
1
)))
# possible positives
recall
=
tp
/
(pp
+
K.epsilon())
return
recall
def
F1(y_true, y_pred):
"""F1-score"""
precision
=
Precision(y_true, y_pred)
recall
=
Recall(y_true, y_pred)
f1
=
2
*
((precision
*
recall)
/
(precision
+
recall
+
K.epsilon()))
return
f1
|
补充知识:分类问题的几个评价指标(Precision、Recall、F1-Score、Micro-F1、Macro-F1) 。
四个基本概念 。
TP、True Positive 真阳性:预测为正,实际也为正 。
FP、False Positive 假阳性:预测为正,实际为负 。
FN、False Negative 假阴性:预测与负、实际为正 。
TN、True Negative 真阴性:预测为负、实际也为负.
【一致判真假,预测判阴阳。】 。
以分类问题为例:(word公式为什么粘不过来??头疼。) 。
首先看真阳性:真阳性的定义是“预测为正,实际也是正”,这个最好理解,就是指预测正确,是哪个类就被分到哪个类。对类A而言,TP的个位数为2,对类B而言,TP的个数为2,对类C而言,TP的个数为1.
然后看假阳性,假阳性的定义是“预测为正,实际为负”,就是预测为某个类,但是实际不是。对类A而言,FP个数为0,我们预测之后,把1和2分给了A,这两个都是正确的,并不存在把不是A类的值分给A的情况。类B的FP是2,"3"和"8"都不是B类,但却分给了B,所以为假阳性。类C的假阳性个数为2.
最后看一下假阴性,假阴性的定义是“预测为负,实际为正”,对类A而言,FN为2,"3"和"4"分别预测为B和C,但是实际是A,也就是预测为负,实际为正。对类B而言,FN为1,对类C而言,FN为1.
具体情况看如下表格:
A 。 |
B 。 |
C 。 |
总计 。 |
|
TP 。 |
2 。 |
2 。 |
1 。 |
5 。 |
FP 。 |
0 。 |
2 。 |
2 。 |
4 。 |
FN 。 |
2 。 |
1 。 |
1 。 |
4 。 |
感谢这两位的指正 。
精确率和召回率 。
计算我们预测出来的某类样本中,有多少是被正确预测的。针对预测样本而言.
针对原先实际样本而言,有多少样本被正确的预测出来了.
套用网上的一个例子:
某池塘有1400条鲤鱼,300只虾,300只鳖。现在以捕鲤鱼为目的。撒一大网,逮着了700条鲤鱼,200只虾,100只鳖。那么,这些指标分别如下:
精确率 = 700 / (700 +200 + 100) = 70% 。
召回率 = 700 / 1400 =50% 。
可以吧上述的例子看成分类预测问题,对于“鲤鱼来说”,TP真阳性为700,FP假阳性为300,FN假阴性为700.
Precison=TP/(TP+FP)=700(700+300)=70% 。
Recall=TP/(TP+FN)=700/(700+700)=50% 。
将上述例子,改变一下:把池子里的所有的鲤鱼、虾和鳖都一网打尽,观察这些指标的变化.
精确率 = 1400 / (1400 +300 + 300) = 70% 。
召回率 = 1400 / 1400 =100% 。
TP为1400:有1400条鲤鱼被预测出来;FP为600:有600个生物不是鲤鱼类,却被归类到鲤鱼;FN为0,鲤鱼都被归类到鲤鱼类去了,并没有归到其他类.
Precision=TP/(TP+FP)=1400/(1400+600)=70% 。
Recall=TP/(TP+FN)=1400/(1400)=100% 。
其实就是分母不同,一个分母是预测为正的样本数,另一个是原来样本中所有的正样本数.
作为预测者,我们当然是希望,Precision和Recall都保持一个较高的水准,但事实上这两者在某些情况下有矛盾的。比如极端情况下,我们只搜索出了一个结果,且是正确的,那么Precision就是100%,但是Recall就很低;而如果我们把所有结果都返回,那么比如Recall是100%,但是Precision就会很低。因此在不同的场合中需要自己判断希望Precision比较高或是Recall比较高,此时我们可以引出另一个评价指标—F1-Score(F-Measure).
F1-Score 。
F1分数(F1 Score),是统计学中用来衡量二分类模型精确度的一种指标。它同时兼顾了分类模型的精确率和召回率。F1分数可以看作是模型精确率和召回率的一种加权平均,它的最大值是1,最小值是0。(出自百度百科) 。
数学定义:F1分数(F1-Score),又称为平衡F分数(BalancedScore),它被定义为精确率和召回率的调和平均数.
更一般的,我们定义Fβ分数为:
除了F1分数之外,F0.5分数和F2分数,在统计学中也得到了大量应用,其中,F2分数中,召回率的权重高于精确率,而F0.5分数中,精确率的权重高于召回率.
Micro-F1和Macro-F1 。
最后看Micro-F1和Macro-F1。在第一个多标签分类任务中,可以对每个“类”,计算F1,显然我们需要把所有类的F1合并起来考虑.
这里有两种合并方式:
第一种计算出所有类别总的Precision和Recall,然后计算F1.
例如依照最上面的表格来计算:Precison=5/(5+4)=0.556,Recall=5/(5+4)=0.556,然后带入F1的公式求出F1,这种方式被称为Micro-F1微平均.
第二种方式是计算出每一个类的Precison和Recall后计算F1,最后将F1平均.
例如上式A类:P=2/(2+0)=1.0,R=2/(2+2)=0.5,F1=(2*1*0.5)/1+0.5=0.667。同理求出B类C类的F1,最后求平均值,这种范式叫做Macro-F1宏平均.
本篇完,如有错误,还望指正。 以上这篇使用keras实现Precise, Recall, F1-socre方式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我.
原文链接:https://blog.csdn.net/joleoy/article/details/85787457 。
最后此篇关于使用keras实现Precise, Recall, F1-socre方式的文章就讲到这里了,如果你想了解更多关于使用keras实现Precise, Recall, F1-socre方式的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
当我使用以下代码计算单类的 precision_recall_fscore_support 时(仅 1 ) import numpy as np from sklearn.metrics import
在 vinyl图书馆,有一个RecAll类型族,让我们要求部分应用的约束对于类型级别列表中的每个类型都是正确的。例如,我们可以这样写: myShowFunc :: RecAll f rs Show =
此 Question询问有关在当前目录中列出目录(不是文件)的问题。我在对其中一个答案的评论中指出,我们不能使用 recursive函数的参数,如 dir和 list.files递归列出当前目录中的目
实现过程 ? 1
让我们谈谈标签 A、B 和 C 的多标签分类问题。我可以计算每个标签的准确率/召回率,如下所示: 精度:正确的 NodeX 分配/总 NodeX 分配 记忆:正确的 NodeX 分配/NodeX 真实
您好,我正在尝试使用以下数据绘制召回精度曲线: Recall Precision 0.88196 0.467257 0.898501 0.468447 0.89899 0.47
我正在尝试使用 tensorflow 实现多标签句子分类模型。大约有 1500 个标签。该模型运行得很好,但我不确定它生成的指标。 这是生成指标的代码段: with tf.name_scope
我正在处理不平衡数据的二元分类任务。 因为在这种情况下准确度没有太大意义。我使用 Scikit-Learn 计算 Precision-Recall 曲线和 ROC 曲线以评估模型性能。 但我发现当我使
我想知道是否有一种方法可以像这样从 scikit learn 包中实现不同的分数功能: from sklearn.metrics import confusion_matrix confusion_m
我正在训练一个检测模型,其中训练和测试数据是 3D NumPy 数组。当开始训练这个模型时发现了这种类型的错误。代码链接如下 Training_model.py detection.py perfor
这个问题在这里已经有了答案: Is there a keyboard shortkey to browse the history in a Jupyter notebook (1 个回答) 关闭
在命令行 Python session 中,我可以按 Control-P 来检索之前输入的行编辑它。 如何在 Jupyter 中执行类似的操作,即继承前一个“In:”块的内容? 最佳答案 看起来 Ju
我正在为我的公司构建一个推荐系统,并对计算 precision@K 和 recall@K 的公式有疑问,我在 Google 上找不到该公式。 使用 precision@K,一般公式将是 top-k 集
我目前正在研究 ML 分类问题,并使用 sklearn 库的以下导入和相应代码来计算精度、召回率和 F1,如下所示。 from sklearn.metrics import precision_rec
我在 C++ 上使用 Openframeworks。我试图使用 openweathermap.org 的 api 在图形上绘制一些点。函数 plotAxes() 和 plotGraph() 被多次调用
我写了一个程序来执行信息检索。 用户在搜索栏中输入查询,程序可以显示相关的文本结果,例如相关的句子和由该句子组成的文章。 我对如何评估结果做了一些研究。我可能需要计算 precision, recal
在测试和评分小部件中,我们可以更改目标类(如果我们进行分类)。 Image 但我想使用 Python 脚本小部件进行测试和评分。 Orange.evaluation.Precision(results
我覆盖 设备 session Controller ...它有效(我可以使用 json 登录),但我无法让它重定向到另一个错误操作: class Users::SessionsController
我正在尝试使用 dlib 的 pig 金字塔检测器来训练狗脸检测器。我使用哥伦比亚狗数据集:ftp://ftp.umiacs.umd.edu/pub/kanazawa/CU_Dogs.zip 一开始我
我正在尝试使用 pyspark.ml 计算分类器的精度、召回率和 F1: model = completePipeline.fit(training) predictions = model.tran
我是一名优秀的程序员,十分优秀!