查看原文
其他

更公平的AI,是理想还是现实?| 腾云下午茶

2017-10-17 腾云 腾云



人工智能正在各个领域与我们的生活接轨。


每天,我们在生活中留下大量数据——我们的交通路线、我们的言语习惯、我们的信用记录,这些过去“无用”的信息,在将来的某一天,也许会成为是否被大学录取的依据,或者成为丈母娘选女婿的参考,甚至可能会被用来给某人定罪!


这种情况下,我们会特别关注,处理这些数据的算法到底有什么价值预设?是否有可能通过对预设的干预,使算法变得更加公平合理?


悲观主义者认为,人类没有办法把机器关上,偏见与生俱来。但也有学者提出,在一定的范围内,我们可以通过法律和技术的手段促进算法透明度,尽量消除消极的偏见。


更公平的AI到底是理想还是可能成为现实?9月28日,在以“更公平的AI”为主题的腾云下午茶上,来自法律、哲学、知识产权、互联网各界的专家齐聚一堂,共同关注AI时代的歧视与偏见及其解决思路。


本文经腾云编辑整理发布。



AI标准和法律共同解近忧、谋远虑


 


刘朝

中国科学院大学公管学院法律与知识产权系副教授

中国科技法学会人工智能法专委会副主任兼秘书长


当考虑AI的法律问题时,首先做以下三个基本区分:第一,近忧和远虑;第二,人工智能的技术属性和社会属性;第三,国际视野下,阐释中国语境的同与异。


经过对全球AI领域知识产权等前沿态势的跟踪分析,可以发现,全球范围内中国技术积累具有比较明显的弱势,以无人驾驶为例,除了论文数量和专利数量我国排名全球第二之外,在高质量专利和高影响力论文上,我国均低于世界有竞争力国家的平均水平。AI医疗领域美国的知识产权积累的优势更为突出,具有遥遥领先的地位。同时中国主体海外知识产权布局弱势也比较突出。


基于回归现实,以期致用的考虑,标准注重事前防范和引导,和法律的强制力相比,对创新的负面效应相对弱。难点有二:一是标准化体制改革能否落地,我国标准化能否更尊重市场逻辑;二是社会理性共识的基础问题,对AI而言,无论是标准规治还是法律规治,甚至伦理道德,前提都是社会的理性共识。我做过的调研发现科研人员和研究生对技术标准的了解程度都不高,而且受调查的理工研究生在上研究生一年级的知识产权通识课之前对知识产权的了解主要来自媒体。


数据和算法自带偏见


 


段伟文

中国社会科学院哲学所研究员


治理社会必须把人群进行区分,所以算法分类本身是不可避免的。


世界不是上帝创造的,只要对人进行分类,就一定会附带价值,因此但凡分类就不是客观的。


机器学习其实是在学习数据,而数据是经验事实。人类先依据经验事实,对数据进行人工标注,比如一件事是有伤风化的还是不伤风化的,等于是建好一个样本库,然后监督机器去学习。机器学习的东西早就嵌入了解释性的含义在这里。所以说,偏见和歧视第一个来源是数据。


第二个来源是算法。今天我们讲算法的透明,但不要忘了这个世界从来就不透明。算法造成偏见的原因,第一是设计者有偏见,他将自己对事物的看法编入了算法中。第二是无意识的差错。算法偏见关键要看使用者或者控制者的意向。


要用法律方式引导算法发展


 


张吉豫

中国人民大学法学院副教授

中国知识产权法学研究会理事

北京大学计算机博士


在大数据和AI时代,算法是不是一定程度上可控,或者一定程度上可以被理解或者被解释?


悲观者认为,技术发展仿佛自有其生命,任何干预都徒劳无功。这当然是一种可能性。但我们在社会生活中应该更多用积极的态度来看这个问题,不管是人工智能还是其中的深度学习,一方面,至少可以从外部角度对它运用各种手段进行分析和理解;另一方面,目前也已经出现一些关于在构建系统时如何兼顾算法透明性、可解释性需求的研究和思考。


回顾软件本身安全性的发展历程,我个人感觉光凭奖励和市场自主的引导,以及知识产权激励是不够的,也可以思考如何恰当地通过法律积极进行辅助引导。法律引导方式大致有两个角度,一是类似通过知识产权来激励创新的引导方式,二是通过适当分配责任或者设置监管,对促进安全性、可解释性的创新进行积极推动。


算法已经日益影响到生活的关键环节,在不远的未来,我们平衡考量时应该用动态的眼光设置更好的、可以促进算法透明性、可解释性以及监管技术创新的激励,以弥补仅凭兴趣的科学研究和单一的市场手段的不足,实现更公平的时代。


全球第一部《自动驾驶道德准则》

规定了什么


 


李昕

首都师范大学科技法研究中心主任


目前,自动驾驶汽车被认为是最有可能实现产业化的人工智能。为了扫清自动驾驶汽车产业化的法律障碍,2017年,德国首先修订《道路交通法》,规定了自动驾驶汽车设计必须满足的法定条件,明确了使用自动驾驶系统时驾驶员的权利和义务,同时,提高了自动驾驶导致的交通事故的赔偿金的最高限额,造成人员伤亡的,最高赔偿额从500万欧元提高到1000万欧元;对于财产毁损的情形,最高赔偿金额从100万欧元提高到200万欧元。


上述针对自动驾驶汽车的相关法律责任的分担,体现出立法的侧重点在于强调了人的理性和人的责任。目的在于通过制度化的设计合理分担自动系统设计者、制造者,以及驾驶员之间的法律责任。


另外,为了保障人工智能产生的问题,德国公布全球第一个关于自动驾驶的道德准则,在《自动驾驶道德准则》中明确了设计自动驾驶的价值追求,并为自动驾驶汽车的设计确立了以下原则:道路安全优于出行便利;个人保护优于其他功利主义的价值考量;对人身权益的保护必须优先于对动物或财产权利的保护等等。


上述准则在考量了自动驾驶车辆可能存在的技术决策风险的基础上,明确了各项可能存在冲突的利益和价值的优先性,为后续的立法规制、司法救济提供了依据,为自动驾驶汽车的产业化提供了制度保障。    


如何解决超出算法边界导致的偏见


 


王亮迪

IEEE标准协会中国战略合作负责人

Ethically Aligned  Design白皮书

起草委员会成员


IEEE正在制定中的涉及人工智能和伦理的标准已经有11项,其中IEEEP7003标准专门是关于算法偏见的。IEEE解决算法偏见的对象是那些消极的偏见和歧视,换句话说就是那些被法律普遍界定为违法的偏见,比如种族歧视、性别歧视等,还有那些虽然不是违法但违反社会公德的偏见和歧视。因为消除所有的偏见不是靠标准就能做到的。另外,这个标准致力于解决超出算法边界导致的偏见。


一个算法在一定范围内可能不存在偏见问题,但超过这个场景、边界的时候可能出现问题。比如,一个在中国市场受欢迎的图像娱乐APP在中国使用可能没有问题,但是到美国却可能被误解为涉嫌种族歧视,这可能是因为它用于训练人工智能系统的人脸数据大多都是亚洲脸,所以外国用户在使用时,外国人骨架会变成中国人骨架,黑人会被美白。它的算法超过了中国场景的边界。


往 期 回 顾

千万别让AI夺走你的决策权 | 腾云下午茶

法律如何规制不断奔跑的“野马”?

法律与代码:互联网时代的角力

智库声音 | 人工智能vs人的智能,谁才是Master

腾讯如何看AI:场景和市场最重要


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存