查看原文
其他

深度学习中的视觉可解释性

张拳石,朱松纯 信息与电子工程前沿FITEE 2022-10-01

内容介绍


摘要:

总结了近年来在理解神经网络内部特征表达和训练一个具有中层表达可解释性的深度神经网络上的相关研究工作。虽然深度神经网络在众多人工智能任务中已有杰出表现,但神经网络中层表达的可解释性依然是该领域发展的重大瓶颈。目前,深度神经网络以低解释性的黑箱表达为代价,获取了强大的分类能力。我们认为提高神经网络中层特征表达的可解释性,可以帮助人们打破众多深度学习的发展瓶颈,比如,小数据训练,语义层面上的人机交互式训练,以及基于内在特征语义定向精准修复网络中层特征表达缺陷等难题。本文着眼于卷积神经网络,调研了:(1) 网络表达可视化方法;(2) 网络表达的诊断方法;(3) 自动解构解释卷积神经网络的方法;(4) 学习中层特征表达可解释的神经网络的方法;(5) 基于网络可解释性的中层对端的深度学习算法。最后,讨论了可解释性人工智能未来可能的发展趋势。


关键词:

人工智能;深度学习;可解释性模型


作者

张拳石,朱松纯


单位:

加州大学洛杉矶分校统计系,美国加利福尼亚,90095


引用格式:

Quan-shi Zhang, Song-chun Zhu, 2018. Visual interpretability for deep learning: a survey. Frontiers of Information Technology & Electronic Engineering, 19(1):27-39.

https://doi.org/10.1631/FITEE.1700808

 

本文精要导读:



FITEE最新推出官方微信,功能包括:传播FITEE出版的学术文章;为FITEE关联学人(读者、作者、评审人、编委,等)提供便捷服务;发布学术写作、评审、编辑、出版等相关资讯;介绍信息与电子工程领域学术人物、学术思想、学术成果,展示该领域科学研究前沿进展;为该领域海内外学者提供友好互动平台。

微信号:fitee_cae

加关注

长按识别二维码关注,或微信搜索公众号fitee_cae关注我们。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存