查看原文
其他

什么是可解释机器学习?

张子豪 微软开发者MSDN 2023-01-21

点击上方蓝字

关注我们

(本文阅读时间:4分钟)

今天我们将为大家介绍,什么是机器学习的可解释性分析以及学习可解释机器学习有什么用。



微软MVP实验室研究员

  //  

张子豪


B 站 AI 科普教育 UP 主“同济子豪兄”:https://space.bilibili.com/1900783微软 AI 最有价值专家(MVP)、华为云 AI HCDE 云享专家。代表作包括:精读 AI 经典论文、编程奇妙夜、斯坦福 CS231N、CS224W 中文精讲、OpenMMLab 代码实战。





什么是可解释 AI


现代的机器学习和 AI,属于“统计学习”,通过大量的数据和经验训练算法,拟合出决策边界和数据分布。

比如识别猫狗的神经网络,输入大量标注好类别的图像,通过神经网络算法,在高维空间拟合非线性、非凸的数据分布和决策边界。

但没人知道神经网络拟合出的数据分布和决策边界真正长什么样子。
并且随着神经网络越来越深,参数越来越多,数据量越来越大。AI 变得越来越像黑盒子。人类根本不清楚它内部的脑回路,到底是怎么做出决策的。AI 到底学习到了哪些特征,是不是符合人类的直觉和常识。AI 什么时候 work,什么时候不 work。AI 到底有没有过拟合,如何进一步改进它和数据集。特别是医疗、无人驾驶、金融这些人命关天的领域,你愿不愿意把身家性命托付给 AI。可解释性分析,就是研究如何打开 AI 的黑箱子,洞悉 AI 的脑回路和注意力,进而解释它、了解它、改进它、信赖它。知其然,也知其所以然。




可解释 AI 有什么用?


研究 AI 的脑回路,就是研究 AI 的本质。可解释分析是 AI 的通用研究方法,无论传统数据挖掘、计算机视觉、自然语言处理、强化学习,都可以和可解释性分析交叉融合,作为研究工作的核心创新点。包括但不限于:大模型、缺陷异常检测、细粒度分类、决策 AI 和强化学习、图神经网络、AI 纠偏、AI4Science、Machine Teaching、对抗样本、可信计算。

对 YOLO 目标检测做可解释性分析:

来源 OpenMMLab甚至,还可以让 AI 把学到的知识教给人类,比如下围棋、识别鸟类、打游戏、画画,从 Machine Learning 升华到 Machine Teaching,引领人类进步。




Datawhale 开源学习计划


可解释机器学习系列公开课,包含 AI 可解释性分析领域的导论、算法综述、经典论文精读、代码实战、前沿讲座。由 B 站知名 UP 主“同济子豪兄”主讲,课程视频免费开源。
  • 开源地址:

    https://github.com/TommyZihao/zihao_course/tree/main/XAI

  • 更多开源教程:

    https://github.com/datawhalechina


*未经授权请勿私自转载此文章及图片。

微软最有价值专家(MVP)



微软最有价值专家是微软公司授予第三方技术专业人士的一个全球奖项。29年来,世界各地的技术社区领导者,因其在线上和线下的技术社区中分享专业知识和经验而获得此奖项。MVP是经过严格挑选的专家团队,他们代表着技术最精湛且最具智慧的人,是对社区投入极大的热情并乐于助人的专家。MVP致力于通过演讲、论坛问答、创建网站、撰写博客、分享视频、开源项目、组织会议等方式来帮助他人,并最大程度地帮助微软技术社区用户使用 Microsoft 技术。更多详情请登录官方网站:
https://mvp.microsoft.com/zh-cn

谢谢你读完了本文!欢迎在评论区留言分享你的想法,并且转发到朋友圈

长按识别二维码

关注微软开发者MSDN

                         

喜欢记得“分享、点赞、在看”哦~  

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存