查看原文
其他

【强基固本】深挖一下F1 score (F-measure, F-score)

“强基固本,行稳致远”,科学研究离不开理论基础,人工智能学科更是需要数学、物理、神经科学等基础学科提供有力支撑,为了紧扣时代脉搏,我们推出“强基固本”专栏,讲解AI领域的基础知识,为你的科研学习提供助力,夯实理论基础,提升原始创新能力,敬请关注。

来源:知乎—林雨洲

地址:https://zhuanlan.zhihu.com/p/161703182


01

前言
针对人群特征:
接触过分类任务,对评估分类任务的一些相关指标有一定的了解。
每次阅读相关文献时,能够理解,但是事后容易忘记或混淆。
没有能力向他人很好地解释这个概念。
知道大体上的意义,但是不确定为什么是这样。
主要目的:
通过深入分析F-score, 梳理相关概念,对测试分类器好坏的一些常见指(这里主要是precision, recall, F-score这三个概念) 有更好的直观上的理解。
特别注释:
因为不太适应一些专业术语的中文翻译,所以文中的一些核心概念的提及沿用英语表达,事先标注一下。
  • Confusion matrix 混淆矩阵

  • True Positive (TP) 真阳
  • False Positive (FP) 假阳
  • True Negative (TN) 真阴
  • False Negative (FN) 假阴
  • Precision 精确率
  • Recall 召回率
  • Accuracy 准确率
  • F-score F分数?
  • Classification 分类
  • harmonic mean 调和平均

02

背景知识
直接摆上一个二分类(正和反)问题的confusion matrix.

然后摆上相关公式:


03

具体分析
这里的分析主要是针对公式的理解。
Precision和Recall分别对应着从两个不同的维度来看TP,也就是对正例的预测效果。
Precision:主观上来说,正例被分正确的效果;
Recall:客观上来说,正例被分正确的效果。
为什么这么说呢?
先分别看一下Precision 和 Recall 两个公式的分母代表着什么?(分子都是TP)
Precision的分母是 (TP+FP),表示的是所有预测为正的例子数。所以Precision代表的是在所有预测为正的例子中,实际上真的为正的比例。为了不被绕晕,这里我又深挖了一下,我觉得预测这个动作代表的是主观,所以Precision表示的是主观上针对正例的预测效果好不好。
Recall的分母是 (TP+FN),表示的是所有实际为正的例子数。所以Recall代表的是在所有实际为正的例子中,预测对了的比例。这里我觉得实际上有多少正例是一个客观存在的事实,所以Recall表示的是客观上针对正例的预测效果好不好。

04

F-score
下面重点来说一下F-score,
F-score 就是precision 和 recall的 harmonic mean。关于harmonic mean数学上的由来,感兴趣的可以看下面帖子
https://zhuanlan.zhihu.com/p/95763963
根据harmonic mean的公式可得
根据公式(4)是可以轻松推导出公式(3)里F-score的标准形式的。这里我们只针对这个harmonic mean 的形式来看,也就是对precision和recall的倒数取平均后,再取倒数。
Precision 的倒数是(TP+FP)/TP;Recall 的倒数是(TP+FN)/TP
所以公式(4)继续推导:

推导到(6)就足够了,虽然不是最简,但是我个人觉得最能体现精髓。
从这个式子我们可以看到F-score只和两个东西有关,FP/TP 和 FN/TP。
结合之前说的,
FP/TP影响的是主观判断上TP够不够分量,也就是主观上TP这个值到底够不够大;
FN/TP影响的是客观判断上TP够不够分量,也就是客观上TP这个值到底够不够大;
继续看一下我们发现只有两种情况(做极限假设,也就是看一下F-score什么时候等于0,什么时候等于1):
F-score = 0 (实际上是无限趋近于0)
主观上TP很小 OR 客观上TP很小
即 FP 或 FN 远大于TP,这里做极限假设我们可以知道F-score趋近于0
F-score = 1
主观上和客观上来说TP都很大,也就是FP和FN都等于0(下限)。
总结,直觉上来说我们都知道TP越大越好,而且这里的大肯定是一个相对的概念,而
F-score 就是分别从两个角度,主观(Predicted)和客观(Actual)上去综合的分析TP够不够大。
这也就是我们平常看到的结论 F-score的值 只有在Precision 和 Recall 都大的时候 才会大。

本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。


“强基固本”历史文章


更多强基固本专栏文章,

请点击文章底部“阅读原文”查看



分享、点赞、在看,给个三连击呗!

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存