其他

机器学习界“硝烟再起”:今年 ICLR 8 篇防御相关论文,7 篇已被攻破

2018-02-04 DeepTech深科技

 长按识别二维码,报名2018十大突破技术全球直播首发


最近,一篇论文的横空出世又引发了机器学习学术界的大讨论。无论是被誉为“GANs 之父”的 Ian Goodfellow,还是谷歌大脑负责人 Jeff Dean 都参与其中。


论文地址:

https://arxiv.org/abs/1802.00420 


这篇论文名为《Obfuscated Gradients Give a False Sense of Security: Circumventing Defenses to Adversarial Examples》(用混淆梯度制造虚假安全感:绕过对抗样本防御),作者之一就是来自麻省理工学院的 Anish Athalye。

 


文章之所以引战度很高,是因为 Anish Athalye 在其推特上宣称,“对抗样本防御依然悬而未决。三天前的 ICLR 接收的论文中,我们已经攻破了其中 7/8 的防御相关论文。”ICLR 会议 (the International Conference on Leaning Representations) 是一个在深度学习领域极具行业影响力的学术会议。


Anish Athalye 还表态称:“我们研究了 ICLR 论文,结果并不令人满意”。其论文也宣称,“混淆梯度”给防御对抗样本带来了虚假的安全感,尽管基于混淆梯度的防御可以打败基于优化的攻击,但这样的防御仍能被攻破。


具体而言,他们的样本研究试验了 ICLR 2018 接收的所有防御措施,其中混淆梯度的使用非常普遍,8 个防御中 7 个依靠混淆梯度,但他们的新型攻击技术依然成功攻破了 7 个。


 GitHub 地址:

https://github.com/anishathalye/obfuscated-gradients 

 


在 Anish Athalye 的 GitHub 中,他演示了如何对猫的图像加入轻微的干扰就能“欺骗”机器的例子。最后,机器将猫头像错认成“果酱”。他认为,使用梯度下降法就能轻易获得这样的“欺骗性图像”。

 


对于 Anish Athalye 的这番言论,Ian Goodfellow 提出质疑。他说:“文中提出的‘混淆梯度’其实是给‘梯度掩码’换个名号而已”。


图丨多种对抗性样本防御方法在攻击下的鲁棒性


目前,Anish Athalye 尚未回应 Ian Goodfellow 的这一观点。

 

-End-



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存