“强基固本,行稳致远”,科学研究离不开理论基础,人工智能学科更是需要数学、物理、神经科学等基础学科提供有力支撑,为了紧扣时代脉搏,我们推出“强基固本”专栏,讲解AI领域的基础知识,为你的科研学习提供助力,夯实理论基础,提升原始创新能力,敬请关注。
地址:https://zhuanlan.zhihu.com/p/161703182
01
接触过分类任务,对评估分类任务的一些相关指标有一定的了解。每次阅读相关文献时,能够理解,但是事后容易忘记或混淆。通过深入分析F-score, 梳理相关概念,对测试分类器好坏的一些常见指(这里主要是precision, recall, F-score这三个概念) 有更好的直观上的理解。因为不太适应一些专业术语的中文翻译,所以文中的一些核心概念的提及沿用英语表达,事先标注一下。02
直接摆上一个二分类(正和反)问题的confusion matrix.
03
Precision和Recall分别对应着从两个不同的维度来看TP,也就是对正例的预测效果。Precision:主观上来说,正例被分正确的效果;先分别看一下Precision 和 Recall 两个公式的分母代表着什么?(分子都是TP)Precision的分母是 (TP+FP),表示的是所有预测为正的例子数。所以Precision代表的是在所有预测为正的例子中,实际上真的为正的比例。为了不被绕晕,这里我又深挖了一下,我觉得预测这个动作代表的是主观,所以Precision表示的是主观上针对正例的预测效果好不好。Recall的分母是 (TP+FN),表示的是所有实际为正的例子数。所以Recall代表的是在所有实际为正的例子中,预测对了的比例。这里我觉得实际上有多少正例是一个客观存在的事实,所以Recall表示的是客观上针对正例的预测效果好不好。04
F-score 就是precision 和 recall的 harmonic mean。关于harmonic mean数学上的由来,感兴趣的可以看下面帖子https://zhuanlan.zhihu.com/p/95763963根据公式(4)是可以轻松推导出公式(3)里F-score的标准形式的。这里我们只针对这个harmonic mean 的形式来看,也就是对precision和recall的倒数取平均后,再取倒数。Precision 的倒数是(TP+FP)/TP;Recall 的倒数是(TP+FN)/TP
推导到(6)就足够了,虽然不是最简,但是我个人觉得最能体现精髓。
从这个式子我们可以看到F-score只和两个东西有关,FP/TP 和 FN/TP。FP/TP影响的是主观判断上TP够不够分量,也就是主观上TP这个值到底够不够大;FN/TP影响的是客观判断上TP够不够分量,也就是客观上TP这个值到底够不够大;继续看一下我们发现只有两种情况(做极限假设,也就是看一下F-score什么时候等于0,什么时候等于1):即 FP 或 FN 远大于TP,这里做极限假设我们可以知道F-score趋近于0主观上和客观上来说TP都很大,也就是FP和FN都等于0(下限)。总结,直觉上来说我们都知道TP越大越好,而且这里的大肯定是一个相对的概念,而F-score 就是分别从两个角度,主观(Predicted)和客观(Actual)上去综合的分析TP够不够大。这也就是我们平常看到的结论 F-score的值 只有在Precision 和 Recall 都大的时候 才会大。
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“强基固本”历史文章
更多强基固本专栏文章,
请点击文章底部“阅读原文”查看
分享、点赞、在看,给个三连击呗!