中心研究│人工智能发展与个人隐私保护问题
我们的社会正在步入一个人工智能无所不在的时代,伴随数据的海量增长、硬件设备的迭代更新、算法的不断进步以及开源社区工具的广泛应用,人工智能从研究实验室走进了人们的日常生活。这看似是最好的时代,谷歌的自动驾驶技术解放了人类的双手,大众点评的算法推荐帮我们做出了饮食的决定,百度地图的智能导航让人们不必再花精力去记住每一条路线。但这也是最坏的时代,你的兴趣爱好、行踪轨迹、消费记录都以数据的形式被记录存储,这些数据被互联网公司和人工智能企业广泛收集并加以利用。数据就是你,你就是数据,在人工智能和大数据时代,你的一切无处可藏。
1.值得深思的观点
2018年1月,美国《华尔街日报》发表了一篇名为《为什么说美国可能在AI竞赛中败给中国》的文章,提出了一个乍听略觉滑稽却又非常值得深思的观点。文章指出,美国大型公司虽然在这场AI竞赛中暂时领先,但中国竞争对手靠着不断增加的投资和更自由更庞大的数据库正在奋起直追。文章进一步指出,相比于西方消费者,中国消费者对数据隐私不太关注,因此中国公司有更大的余地去挖掘消费者的个人信息,利用这些信息来开发更智能高效的AI系统,并运用于医疗和监控等领域。
质言之,在西方看来,中国人工智能的快速发展,其重要原因是我们并不注重对个人隐私的保护,从而可以对数据进行没有限制的使用;而在西方,由于隐私权引发的担忧日升温,加之用算法来做决定存在道德隐患,获取AI所需要的数据时常受到限制。
不可否认的是,人工智能的发展离不开海量数据的支持,AI进步的基础是在机器学习过程中广泛运用数据去加以训练的。《华尔街日报》的文章强调了数据之于人工智能发展的重要性,而换个角度来理解,它也指出了当前我国人工智能发展中对个人数据保护严重不足的现状。需要注意的是,中国并不缺乏对公民个人数据保护的法律规定,实际上我们已经初步建立起了以《网络安全法》为核心的个人数据保护法律框架。真正的问题在于,之于很多人来讲,其对个人数据保护的认知还不够深入,对于人工智能发展给个人隐私保护带来的影响缺乏直观的感受和足够的重视,企业以提供便利服务为由,便可大量收集和使用个人数据。
居高念下,处安思危。《华尔街日报》的观点不是空穴来风,文章列举了中国人工智能初创公司依图科技的案例,它利用中国一个18亿的人脸数据库的优势成功击败了15个对手,赢得了美国情报界举办的人脸识别挑战赛。我们的产业发展取得了让人瞩目的成就,也将继续处于全球领先地位,但我们也要提高警惕,更加重视人工智能发展过程中隐私深处的忧虑,切莫让个人隐私保护成为人工智能发展中“皇帝的新装”。
2.隐私深处的忧虑
个人隐私在实践中也被称为个人数据或个人信息。个人隐私保护是长期以来各国立法关注的核心议题,在人工智能的发展过程中,个人隐私保护问题仍然成为各方的重点关切。特别是随着大数据技术和智能技术的结合,政府和企业的决策越来越依赖大量的数据分析,大规模的数据收集、分析和使用,使传统社会走向透明化,在万物互联、大数据和机器智能三者叠加后,人们或许将不再有隐私可言。
人工智能时代,数据的收集、使用等各个环节都面临着新的风险。在数据收集环节,大规模的机器自动化地收集着成千上万的用户数据,涉及到个人姓名、性别、电话号码、电子邮箱、地理位置、家庭住址等在内的方方面面,这些数据海量汇集形成对用户的全面追踪。在数据使用环节,大数据分析技术广泛使用,数据经挖掘能分析出深层信息,不仅可以识别出特定的个人,还能分析出个人的购物习惯、行踪轨迹等信息,进一步扩大了隐私暴露的风险。在整个数据的生命周期中,由于黑客攻击、系统安全漏洞等原因,个人数据还始终面临着被泄露的潜在安全风险。
与此同时,部分企业一直在夸大人工智能给人类生产生活带来的极大便利,而用户本身也往往忽视了这些新技术新应用对隐私和个人数据带来的危害。当前,智能APP已经成为人们生活中必不可少的工具,这些APP在提供生活服务的同时会收集大量个人信息数据,从而给用户推送精准营销信息,但精准营销带来的一个潜在危险就是“精准诈骗”。诸多诈骗案件表明,这将会给个人人身和财产安全带来极大的损害。
3.立法的调整方向
对于人工智能可能带来的隐私风险,目前已经引起了国际社会的广泛关注和担忧。英国政府发布的《人工智能:未来决策的机遇和影响》报告中指出,在为了分析的目的使用公民的数据时,能否保护公民的数据及隐私、能否一视同仁的对待每个公民的数据、以及能否保证公民个人信息的完整,对于政府赢得公众的信任和保护好本国公民来说至关重要。所以,人工智能系统对于个人数据的使用必须遵循现有的法规,如1998年英国的《数据保护法》和2016年欧盟的《数据保护通用条例》,禁止一切未经同意的非法使用公民个人数据的行为。
国际电气和电子工程师学会(IEEE)2016年发布的《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》报告在第五部分“个人数据与个体访问控制”中指出,数据不对称是个人信息保护的一个重大道德困境。在算法时代,人工智能系统对个人数据的使用不断增强,为了解决不对称问题,需要完善个人信息保护政策,要以尊重个人数据完整性的方式设计并应用自主和智能系统。
与此同时,我国国务院在今年7月印发的《新一代人工智能发展规划》中也明确指出,人工智能是影响面广的颠覆性技术,可能冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,确保人工智能安全、可靠、可控发展。要加强人工智能相关法律、伦理和社会问题研究,开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究。
目前,为应对包括人工智能在内的新技术新应用快速发展给现有个人隐私保护法律制度带来的挑战,部分国家和地区已经开始进行立法和修法活动,出台针对个人数据收集和AI应用的新政策和更严厉的提案。在欧盟,针对新技术发展带来的法律适用挑战以及成员国个人数据保护法律碎片化问题,2016年4月,欧盟出台史上最严格的《通用数据保护条例》(GDPR),并将于2018年5月正式实施,直接适用于所有欧盟成员国。在新通过的GDPR中,欧盟加强了个人隐私和数据保护,其中关于用户画像等自动化决策的规定将会对基于大数据的人工智能行业实践产生重大影响。根据GDPR的规定,用户有权拒绝企业对其进行画像等自动化决策,而且用于用户画像的数据不能包括人种或者种族起源、政治意见、宗教或者哲学信仰、基因、生物特征、健康状况等特殊类别的个人数据。
此外,2016年12月5日,来自德国的社会团体向欧洲议会提交了一份《欧盟数字基本权利宪章》,以应对数字时代带来的严峻挑战。宪章强调了个人享有数据保护的权利,并且赋予了个人对其数据如何利用、处理的权利,同时要求独立的监管机构来确保公民数据权利的行使。更为重要的是,宪章对人工智能及计算算法提出了特殊要求,考虑到人工智能等新技术对个人基本权利带来的威胁,宪章要求利用计算机算法处理个人数据活动时需要采取匿名化等手段,在涉及个人基本权利领域使用和发展人工智能时需要进行详细的审查,以确保公民隐私和数据安全。
而需要引起注意的是,立法既可能促进产业发展,也可能产生阻碍作用,过于严厉的数据保护政策必然会对人工智能发展带来一定的束缚。理想的制度设计应该是,个人数据保护法在保护公民个人隐私的同时也需要兼顾本国产业发展的实际情况。目前为止,全球有超过120个国家制定了个人数据保护法,其中绝大多数具有欧式元素。但与欧盟和其他多数国家不同的是,中国的人工智能发展处于全球相对领先的地位,产业规模优势明显,隐私保护的忧虑虽然客观存在,但并非是不可控的因素,寻找个人数据保护和产业发展的平衡点是立法部门首先需要考虑的问题。要坚持鼓励支持和规范发展并行,坚持政策引导和依法管理并举,在实现人工智能产业发展的同时完善和强化个人隐私保护。
作者:何波,中国信息通信研究院互联网法律研究中心研究员。