其他
从AI到智障只有一个像素的距离
更多全球网络安全资讯尽在E安全官网www.easyaq.com
E安全10月31日讯 日本九州大学(Japan's Kyushu University)一组研究人员近期发表的研究结果显示,修改图片的一个像素就可愚弄图像分类器(Image Classifier)。
研究人员根本不需了解深度神经网络
研究人员根本不需了解深度神经网络
这组研究人员秉持两大研究目标展开此项研究:
可预见性地欺骗深度神经网络(DNN);
尽可能实现攻击自动化。
换句话讲,研究要如何将“汽车”图像错误识别为“狗”?而对抗性扰乱一个像素便能达到这种目的,而这类攻击肉眼察觉不到。
研究人员通过研究提出惊人的结论:一个像素的攻击在近四分之三的标准训练图像中可行。研究人员根本不需了解深度神经网络,只需 “黑盒子”(Black Box)概率标签输出发挥作用。此类攻击基于“差分进化”(DE)技术。扰乱的像素越多,攻击愈有效:修改1个像素,误导分类的成功率为73.8%;扰乱3个像素,成功率为82%;而修改5个像素可将成功率提升至87.3%。
研究人员只更改一个像素的情况下成功误导了目标 DNN。
括号内的标签为识别类别,括号外的标签是原类别
目光敏锐的人仔细看这些测试图像就会发现,一个像素攻击只对1024像素的图像发起攻击。但是,对于280,000像素的图像而言,只需修改273个像数,并且人眼仍不易察觉其中的变化。
完整的研究报告,请长按识别下方二维码获取:
注:本文由E安全编译报道,转载请注明原文地址
https://www.easyaq.com/news/1854979632.shtml
推荐阅读:
▼点击“阅读原文” 查看更多精彩内容