外刊 | 人工智能与隐私保护,绝不是一场零和游戏!
点击上方“社会科学报”关注我们哦!
人们一直担忧,人工智能的发展是否会威胁隐私保护,一方的进步必须以牺牲另一方的利益为代价。2018年12月27日,AI研究高级主管卡西米尔·威尔兹斯基(Casimir Wierzynski)与英特尔公司人工智能产品部CTO办公室法律顾问阿比盖尔·兴文(Abigail Hing Wen)在《财富》杂志发文,从技术与政策层面对这一问题进行分析,认为推进人工智能和实现隐私保护并不是一场零和游戏。
原文 :《推进人工智能与隐私保护不是零和游戏》
吴学丽/编译
图片 | 网络
学术界和实业界的研究人员把密码学和机器学习结合起来,开发了一些隐私保护技术来推进人工智能的发展,其前景乐观。
首先是联合学习(federated leaning)。假设有一组医院试图建立一个机器学习系统来分析患者数据,评估疾病发生的可能性。理论上,通过共享数据,它们可以建立一个更精准的模型,但隐私保护规则禁止这样做。联合学习提供了一种解决方案,它的工作原理是这样的:首先,每家医院都使用各自的数据来调整、改善共享模型,但这些本地数据不会被带出医院。其次,受信任的中央服务器收集所有调整过的模型,将整理、汇总后的改进方案发送给各家医院。该方法可重复进行,直到模型完全符合要求。这样既可以帮助保护隐私,也可为所有参与的医院提供大规模、多样化的数据集。2017年,Google公司开始在安卓设备中测试联合学习方法。
其次是差分隐私(differential privacy)。应用程序收集用户的数据以了解产品的使用,改进如交通预警、影片推荐等服务内容。从理论上讲,汇总数据不应暴露个体数据。然而,在实践中,在某些情况下,重新识别数据集中的个体信息是可能的。差分隐私通过引入一些随机信息来隐藏用户信息的手段从而使个体隐私得到保护。苹果公司从用户的设备收集数据时就使用了这种隐私保护技术。
还有同态加密(homomorphic encryption)。这种技术允许机器学习在数据仍处于加密状态时,也就是说,在无需访问敏感的基础数据情况下对数据进行操作运算。使用同态加密技术,医院可以锁定敏感的医疗数据,将其发送给远方的不受信任的系统进行分析,在收到加密结果后,使用密钥解密结果。这个过程的任何环节都不会泄露基础数据。使用同态加密还可以提供持续的数据保护,但差分隐私技术没有这样的功能。英特尔正在构建同态加密工具,帮助研究人员开发可对加密数据进行操作的神经网络模型。
当然,挑战也仍然存在。在技术层面,虽然底层加密工具已经成熟,但它在需要保护隐私的机器学习过程中仍有改进的空间。例如,与非私有方法相比,这类技术需要额外的计算资源,尽管研究人员正在努力降低附加成本。在政策层面,尚不清楚这些保护隐私的机器学习方法在多大程度上会满足立法者和监管者的要求。值得注意的是,欧盟的《通用数据保护条例(GDPR)》不适用于匿名信息,但由于加密数据可以解锁,因此它不太可能被视为匿名,尽管这仍有待于法律的确认。而且,越来越多的政府通过法律来规范隐私,但有些相关立法的考虑还不成熟或与技术现实不协调,被动立法的风险出现了。隐私问题也可能会导致一些科技公司为避免意外而抛弃创造性解决问题的方案。这些担忧突出了技术专家和政策制定者之间建立强有力的伙伴关系以实现联合监管和技术解决问题的重要性。研究人员和实业界的合作与推动可以确保人工智能充分发挥潜力,而不必纠结于是选择保护隐私还是推进创新。
文章原载于社会科学报第1641期第7版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。
相关文章
社会科学报
做优质的思想产品
官网
http://www.shekebao.com.cn/