查看原文
其他

“可信AI”的两大瓶颈:算法安全和数据保护

紫东君 人民中科 2024-01-09


“可信”被认为是下一代人工智能的基础。


AI作为一项伟大的技术发明,被广泛应用到各行各业。近年来随着AI技术的规模化产业落地,逐渐暴露出越来越多的诸如“算法安全”、“隐私泄露”、“数据歧视”等问题,将AI指向了“不被信任”的困境。

针对AI伴随的风险和挑战,发展“可信AI”,推动人工智能的透明可视、安全可控、多元包容已成为全球共识,也是未来人工智能健康发展的必由之路。

01AI技术的发展关乎信任


近30年来,人们在AI工程上取得了不少瞩目的成绩。
 
1997年,“深蓝”成为战胜国际象棋世界冠军卡斯帕罗夫的第一个计算机系统。
 
2006年,Hiton提出了深度置信网络,成为了深度学习的前驱。
 
2012年,Google大脑使用超过16000个CPU,用以模拟10亿个神经元,在语言和图像识别上都取得了突破。
 
2016年,拥有1920个CPU集群和280个GPU的深度学习系统AlphaGo击败李世石,成为第一个不让子击败职业围棋棋手的程序。

AI技术与产业的加速融合,从工业生产到消费服务的各个方面改变着人们的生活,对生产和生活效率的提升极为迅速。

然而,在AI赋能数字经济的过程中,AI算法的弊端也频频出现,质疑的声音层出不穷。
 

例如,部分电商平台存在大数据杀熟现象;内容平台则存在用户在推荐算法下接收的资讯内容同质化的现象;外卖系统用算法将骑手困在系统里;社交平台也有因监管不当暴露个人隐私数据的问题,交通出行平台运用人工智能系统路线规划不合理导致多收费、显示接送到达时间与实际严重不符等等。




源于这些真实发生的问题,大众对AI的信任度大大降低。AI 技术所带来的便利和 AI 技术「不可信」之间的矛盾,正逐渐成为 AI 在现实生活中大规模落地应用的核心问题。

02“可信AI”的两大瓶颈:算法安全和数据保护
在技术研发层面,实现“可信AI”的途径主要是两方面:数据与算法

数据问题集中在隐私保护和安全、数据偏见以及由此带来的不公平,而算法问题则在于可解释性与稳健性(又称为「鲁棒性」)。


数据、算法与算力被举为人工智能研究的「三驾马车」,随着用户对隐私数据的保护意识加强、数据泄露所带来的风险加大,如何在「数据保护」与「数据驱动的AI研究」中谋求两全之策,将成为“可信AI”的热门研究方向之一。

除了数据隐私保护,要实现“可信AI”,目前所面临的问题与未来要集中解决的方向有如下几个维度:


1)数据的公平性


AI的训练结果直接依赖于输入的数据。然而受数据采集条件的限制,不同群体在数据中所占的比例并不均衡。例如当下 NLP 训练语料大多是英语和中文,其他 8000多个少数语种很难融入到AI世界当中;而由于学习语料的问题,AI简历筛选时往往会自动过滤掉包含特定关键字的求职候选者,使之成为「AI透明人」。


02)算法的稳定性


针对 AI 模型的数据和系统存在多种攻击方式,例如中毒攻击、对抗攻击、后门攻击等。举例来说,通过向模型中投喂恶意评论,便可以影响推荐系统的准确度;在交通标志牌上贴上特殊设计的图案,便可以误导自动驾驶系统错误识别。


另一方面,干扰的形式也正在逐步从数字世界向物理世界蔓延,例如通过打印对抗样本等手段,直接对自动驾驶和人脸识别系统造成物理层面的干扰。


03)算法的可解释性


以深度学习为代表的机器学习算法,本质上是一个端到端的黑箱。一方面,人们对训练得到的人工智能模型为何能具有极高的性能尚不清楚;另一方面,人工智能系统在做出决策时具体依赖哪些因素,人们也不清楚。



比如,曾有实验者向GPT-3(自然语言处理模型)提问「新冠疫情何时结束」,它的回答是「2023年12月31日」,但答案的依据是什么?研究者无从解释,也自然难保其准确率。



03“可信AI”,凝聚国际共识

面对人工智能引发的全球信任焦虑,发展“可信AI”已经成为全球共识。早在2019年6月,二十国集团(G20)就提出“G20人工智能原则”,并在其五项政府建议中明确提出“促进公共和私人研发的投资力度,以促进可信赖的人工智能的创新;需创建一个策略环境,为部署值得信赖的人工智能系统开辟道路。”目前,这项倡议已成为国际社会普遍认同的人工智能发展原则。


随着“可信”成为共识,产业界也紧跟学术界步伐,纷纷投入“可信AI”的研究,加速解决AI落地的种种难题。
 
目前,“可信AI”技术已在包括反欺诈、反洗钱、反盗用、企业联合风控、数据隐私保护在内的多个风控场景下落地,支撑着其全风险域的防御需求。
  
企业有责:以“可信AI”护航内容安全!

以人脸识别算法模型为例,针对人脸伪造问题,(治理“深度伪造” 技术与立法需齐头并进)人民中科研究团队针对深度伪造的不同场景和难点,通过机器学习、算法学习和模型训练,在技术能力上,具备基于身份空间约束的身份交换型伪造人脸鉴别和基于噪声一致性的伪造人脸鉴别等多种伪造人脸鉴别技术能力,可快速、精准对图像与视频进行真伪鉴别。


在内容安全领域,人民中科依托世界领先的内容理解技术和核心产品跨模态智能内容搜索引擎“白泽”,提供面向政府和企业的内容安全服务、内容监测及版权保护、内容情报挖掘、内容安全测评和互联网内容审核、风控、巡检等系统,一站式内容风控解决方案,全方位护航数字世界网络安全与治理。
  
企业是推动AI技术在人类社会中产生价值的先锋者。人民中科将继续深耕内容安全领域,以更先进的技术和服务为数字世界安全治理做贡献。

责编:岳青植
监制:李红梅


参考来源:

1.《陆军院士:分领域有步骤实现人工智能安全可控可靠》央广网

2.《打通创新“最后一公里”,破解AI落地应用难》科技日报

3.《是时候谈谈可信AI的问题了》央广网

4.《你对人工智能的信任有几分?“可信AI”究竟该如何发展?》中国城市报

5.《西安交大沈超:可信AI实战竞技节目引领科技风气,需被更多看见》中国网科技

6.《AI浪潮下,更须守护数据安全》光明日报


往期回顾

8.26解开人工智能迷思:深度学习与传统机器视觉的发展与融合

8.25内容风控 | 不谈安全,便谈不上发展

 

8.22法眼观察 慧眼见真 | 智能内容巡检系统“法网查”重磅上线!


关于人民中科人民中科智能技术有限公司,是人民网与中科院自动化所共同发起设立的“人工智能技术引擎”和科技成果转化平台,拥有世界领先的内容理解技术,核心产品是跨模态智能内容搜索引擎“白泽”,初始应用场景是数字世界的安全,目标是成为全球内容科技领导企业。


继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存