查看原文
其他

共筑AI安全,安享智能未来:首届人工智能安全大赛在京落幕

AI

近日,以“共筑AI安全 安享智能未来”为主题的AISC首届人工智能安全大赛在京落幕。中科院院士、清华大学人工智能研究院名誉院长张钹,北京市科学技术委员会、中关村科技园区管理委员会党组成员、副主任张宇蕾,北京市经济和信息化局党组成员、副局长潘锋,工业和信息化部网络安全管理局数据安全处四级调研员张洪通过线上线下的方式出席活动。





活动现场


本次大赛是由国家工业信息安全发展研究中心、清华大学人工智能研究院和北京瑞莱智慧科技有限公司等单位联合主办的全国性人工智能安全赛事,旨在推动人工智能攻防技术创新、实战演练、场景挖掘和人才培养。
同期举办的主题论坛,邀请到多位院士专家、行业领袖、政企代表出席,共同探讨如何在未来智能的全新战场,打赢技术攻防之战。与会专家们表示,重视人工智能安全体系建设,既是当务之急,也是长远考虑,需加快促进人工智能安全领域关键技术研究与攻防实践。









AI安全风险已非未来挑战

而是眼前威胁


大赛工作人员演示对抗样本攻击人脸识别门禁系统
主办方北京瑞莱智慧科技有限公司首席执行官田天认为,人工智能技术风险发生的范围正随着应用场景的日趋广泛而逐步扩大,风险发生的可能性也随着其应用频次的增长而持续提高。他表示,人工智能当前的安全风险,一是技术的两面性,存在AI滥用甚至“武器化”的问题;二是系统的风险,来自于深度学习算法本身的脆弱性。
这一漏洞在自动驾驶感知系统同样存在,北京瑞莱智慧科技有限公司演示了用对抗样本攻击自动驾驶汽车。正常情况下,在识别到路障、指示牌、行人等目标后,自动驾驶车辆就会立即停车,但在目标物体上添加干扰图案后,车辆的感知系统就会出错,径直撞上去。
在人工智能的全生命周期,不仅存在算法层面的安全性问题,算力作为人工智能发展的重要基础设施,也面临着诸多风险,推动人工智能算力基础设施安全发展具有重要意义。活动期间,由国家工业信息安全发展研究中心牵头,联合华为技术有限公司和北京瑞莱智慧科技有限公司共同撰写的《人工智能算力基础设施安全发展白皮书》正式发布。
《人工智能算力基础设施安全发展白皮书》正式发布
白皮书围绕人工智能算力基础设施安全发展的意义、内涵与体系架构、安全管理现状、发展建议等方面展开深入研究。白皮书指出,人工智能算力基础设施不同于传统的算力基础设施,既是“基础设施”,又是“人工智能算力”,也是“公共设施”,具有基建属性、技术属性、公共属性三重属性。相应地,推动人工智能算力基础设施安全发展应从强化自身安全、保障运行安全、助力安全合规三个方面发力,通过强化自身的可靠性、可用性与稳定性,保障算法运行时的机密性与完整性,提升用户的安全管控力、认可度与合规性等八个领域筑牢人工智能安全防线,打造可信、可用、好用的人工智能算力底座,营造安全、健康、合规发展的人工智能产业生态。









以赛促研、以赛育人

守护未来智能安全


安全的本质在于对抗升级,构建安全需要一个持续攻防演进的过程。
瑞莱智慧首席执行官田天
结合具体赛题来看,自动驾驶安全赛题和人脸识别安全赛题从攻击视角出发,通过让选手攻击目标模型挖掘算法漏洞,旨在发现更加稳定的攻击算法,以更好的实现准确评估模型的安全性。深度伪造安全赛题则通过分析伪造音视频的相似性,来溯源不同伪造内容是否来自同一种或同一类生物特征生成软件,以促进对深度伪造检测技术的发展,具有重要的现实意义。
构建人工智能的安全生态,一方面需要技术的持续演进,一方面也需要专项技术人才的建设与培养。本次大赛通过实战演练的方式,全方位验证和提升选手实战能力,为培育一批高水平、高层次的人工智能安全新型人才团队提供了“快速通道”。
自七月开启报名以来,大赛共吸引来自全国范围内70多所高等高校、科研院所、企业机构的超过400支团队,共计600余名选手的踊跃参与。经过三个月的激烈角逐,最终,上海交通大学联合战队“AreYouFake”与北京交通大学战队“BJTU-ADaM”分别摘得深度伪造安全与自动驾驶安全赛道桂冠,北京理工大学战队“DeepDream”与建信金科战队“Tian Quan&LianYi”共同位列人脸识别赛道第一名。
深度伪造安全竞赛前三名
自动驾驶安全竞赛前三名
人脸识别安全竞赛前三名
本次大赛提供了技术交锋和思维碰撞的平台,通过竞赛的方式挖掘攻击与防御技术新思路,同时链接产业侧真实安全需求,为进一步强化人工智能安全攻防研究提供基础,也为推动人工智能安全标准及能力建设提供了重要支撑,助力我国人工智能产业的整体发展。









专家观点

没有高水平安全,就没有高质量发展


统筹发展和安全,是每项新技术发展过程中面临的必然问题,如何实现高水平发展和高水平安全的良性互动,也是当前人工智能产业发展最为重要的命题,现场多位专家就此话题展开分享,探索AI安全建设的新思路与新路径。
人工智能对抗攻防包括对抗样本、神经网络后门、模型隐私问题等多方面技术。模型有错误就需要进行及时的修复。中国科学院信息安全国家重点实验室副主任陈恺提出“神经网络手术刀”的方法,通过定位引发错误的神经元,进行精准“微创”修复。陈恺表示,不同于传统的模型修复工作需要重新训练模型,或者依赖于较大量的数据样本,这种方式类似于“微创手术”,只需极少量或无需数据样本,能够大幅提升模型修复效果。
中国科学院信息安全国家重点实验室副主任陈恺
开放环境下的人工智能系统面临诸多安全挑战,如何解决通用人工智能算法全周期的安全保障问题成为重中之重。北京航空航天大学软件开发环境国家重点实验室副主任刘祥龙表示,目前人工智能算法及系统的安全性缺乏科学评测手段,难以有效评测完整的人工智能模型和算法能力。他表示,从技术上来看应形成从安全性测试到安全性分析与安全性加固的完整技术手段,最终形成标准化的测试流程。未来的人工智能安全应该围绕从数据、算法到系统各个层次上的全面评测,同时配合一套整体的从硬件到软件的安全可信计算环境。
北京航空航天大学软件开发环境国家重点实验室副主任刘祥龙
工商银行金融研究院安全攻防实验室主管专家苏建明表示,人工智能安全治理需要广泛协作和开放创新,需加强政府、学术机构、企业等产业各参与方的互动合作,建立积极的生态规则。政策层面加快人工智能的立法进程,加强对人工智能服务水平、技术支撑能力等专项监督考核力度。学术层面,加大对人工智能安全研究的激励投入,通过产学研合作模式加快科研成果的转化与落地。企业层面,逐步推动人工智能技术由场景拓展向安全可信发展转变,通过参与标准制定,推出产品服务,持续探索人工智能安全实践及解决方案。
工商银行金融研究院安全攻防实验室主管专家苏建明
最后,圆桌对话环节,北京交通大学教授、计算机与信息技术学院副院长景丽萍,清华大学人工智能研究院基础理论研究中心主任朱军,北京邮电大学网络空间安全学院副院长邓伟洪,北京科技大学计算机与通信工程学院教授陈健生,华为可信AI安全解决方案专家唐文围绕人工智能安全技术发展、人工智能安全治理等话题展开深入交流。



专家们认为,从长远看,人工智能的安全问题,还需从算法模型的原理上突破,唯有持续加强基础研究,才能破解核心科学问题,同时他们强调,人工智能的未来发展需确保对整个社会、国家发展的有效性和正向促进性,需要政产学研用多方协同共进。



版权声明
      本文由“北京国际科技创新中心”公众号编辑,资料来源北京市科学技术委员会、中关村科技园区管理委员会。欲转载请关注公众号后直接回复“转载”,按照要求转载即视为获得授权。

长按二维码关注
北京国际科技创新中心
想了解更多资讯,快来加入我们吧~

往期 · 推荐

亮相《新闻联播》 北京加快推动中关村新一轮先行先试改革

一周前沿科技盘点⑬|苦味受体“神秘面纱”首次揭示、高维单向量子导引研究获进展

第七届中国创新挑战赛暨中关村第六届新兴领域专题赛正式启动

56家!第十一届中国创新创业大赛北京赛区获奖企业名单来了

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存