其他
开源系列:AI对抗攻防算法开源平台,哪家强?
阿里安全高级算法专家,越丰:
像打仗一样,攻击者可能用水攻,也可能火攻,还可能偷偷挖条地道来攻打一座城,守城的人不能只考虑一种可能性,必须布防应对许多的攻击可能性,尤其要关注恶意攻击者对数据或样本进行“投毒”,故意影响AI模型的攻击行为。算法安全,比较典型的就是对抗样本,它是深度学习范式下人工智能存在的一种缺陷,通过算法修改为样本攻击提供深层次的攻击,而且已经成为了主流的技术趋势。
机器学习在推理和决策的快速发展,已使其广泛部署于自动驾驶、智慧城市、智能医疗等应用中。但是,传统的机器学习系统通常假定训练和测试数据遵循相同或相似的分布,并未考虑到潜在攻击者恶意会修改训练和测试数据这两种数据的分布。 这相当于在一个人成长的过程中,故意进行错误的行为引导。恶意攻击者可以在测试时设计小幅度扰动,误导机器学习模型的预测,或将精心设计的恶意实例注入训练数据中,通过攻击训练引发AI系统产生错误判断。 好比是从AI“基因”上就做了改变,让AI在训练过程中按错误的样本进行训练,最终变成被操控的“傀儡”,只是使用的人全然不知。深入研究潜在针对机器学习模型的攻击算法,对提高机器学习安全性与可信赖性有重要意义。
这次分离 不说再见
最后,再介绍一下主编自己吧。我是谭婧,科技和科普题材作者。围追科技大神,堵截科技公司。生命短暂,不走捷径。个人微信18611208992。还想看我的文章,就关注“亲爱的数据”。