查看原文
其他

研究发现对抗攻击方法,可适用多个人工智能模型

source:paixin.com


人工智能虽然非常强大,不过正如任何计算机系统,都会有缺点和漏洞。最近有研究发现,如果找出一个成功骗过人工智能模型的攻击方法,可在另一人工智能模型奏效。


意大利 University of Cagliari 及美国 Northeastern University 研究人员最近于 arXiv 刊登的论文指出,常见用来欺骗人工智能神经网络的攻击,一旦发现在一个人工智能模型有效,在其他人工智能模型也同样有效,变相让攻击者可先在风险较低的人工智能模型测试,找到有效的方式后再实际于资安较严格的地方使用。


研究人员表示,这种可转换性让攻击者针对完全不同而未知的模型进行有效攻击,对现在越来越普及的人工智能系统是危险的现象。特别是当现在信息更透明公开,攻击者了解目标系统的架构,并采用相关开源模型测试也越来越容易。他们也在论文提及如何避免这情况,让系统设计者更小心,避免遭受攻击。


来源:科技新报


(星标提示:微信改版啦,三步离AI更近:1.点击“AI人工智能产业研究”  2.点击右上角三点图标  3.选择“设为星标”。)


推荐阅读

三星发表多款智能装置,智能手表Galaxy Watch Active领军

微软宣布在法国成立人工智能全球发展中心

中国人工智能专利申请量居于世界领先地位

给我好看▼

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存