查看原文
其他

先见未来大会专区 | 郭锐:人工智能可能带来哪些伦理问题?

有思想的talk君 一刻talks 2021-05-12


作者 | talk君

图片源于先见未来大会2020



完整版视频可点击文末阅读原文下载“一刻talks”App观看



今天talk君要跟大家分享来自一刻talks先见未来大会2020讲者、哈佛大学法学博士、未来法治研究专家郭锐的演讲。


他向我们介绍了目前人工智能所遇到的伦理问题,并提出了应对的两个原则,分别是人的根本利益原则和责任原则,呼吁每个人都积极参与到人工智能伦理风险问题的思考中。


一刻讲者

郭锐

哈佛大学法学博士;

未来法治研究专家


”人工智能没有达到人的智能,却被赋予了为人决策的责任,这是我们遭遇这些人工智能伦理问题共同的场景“


大家好,我是一刻talks的讲者郭锐。


其实没有一个时代像今天一样,我们对技术充满了期待,人工智能已经用在我们生活中的方方面面,我们看到人工智能驱动的出租车已经行驶在路上,我们看到人工智能已经让我们的制造业更加的高效,人工智能正在帮助医生更加高效准确的诊断疾病。其实也没有一个时代像我们今天一样对技术的应用充满了疑虑,我相信在座的朋友们应该有很多所在的小区已经装了人脸识别的门禁,甚至在幼儿园这样的场合,也会有人脸识别技术的应用。

 

前一段时间我们有一篇文章在我们的朋友圈里面刷屏,是外卖骑手和算法之间的博弈,我们对外卖骑手充满同情的同时,有时候也会不由得担忧我们自己的未来,我们自己所在的职业会不会在将来也像外卖骑手一样被算法统治?我们的竞争也变成这种内卷化的、非常低效率的竞争。

      

但是面对这么多纷繁复杂的人工智能的应用,到底是什么让我们心绪不宁?我们需要去更深的去认识人工智能的伦理,才能更好的去理解这些原则,才能想到我们可以做什么。我们会用两个例子来说明。

       

在刚刚过去的双11,每一个人的首页的智能推荐都是不一样的,这已经是一个非常巨大的技术进步。但是其实有一些问题,说郭老师我其实觉得有一件事情就是很诡异,我和我的太太在厨房偶然的提到一件东西,比如说智能马桶圈,我以前从来都没有买过这样的东西,可是就在我们刚刚说完这句话之后,很快电商平台就推荐给我了这个智能马桶圈,这个是不是手机在偷听?

        

所以我也跟在企业的一线开发人员讨论过这些问题,技术人员告诉我说,如果要在现在这样的技术条件下,通过手机的麦克风,在一个背景噪音非常多的环境中间,准确的提取你所提到的一样产品,并且确认这是你需要的产品,推送给你,这其实非常的不经济,这个更有可能是从你的其他的购物习惯和行为特征来推导出来的。好,似乎看起来我们的隐私至少在偷听这个意义上没有问题,会不会有别的问题?

       

哈佛大学的教授,其实来回顾了这样的一个情景是如何产生的。从2002年开始,谷歌有了一个新的商业模式,在之前谷歌收集个人数据,它是用来改进搜索的,系统会根据你搜索的结果来推荐你一个产品,卖给你广告。但是2002年之后,谷歌发现说收集的个人数据不必仅仅去改进搜索,它可以用收集的个人数据直接和你的广告需求所匹配,然后精准的推荐给你广告,于是大量的收集个人行为的特征信息,可以更好的来预测这个用户去做什么,有了更好的预测,也就给了更好的干预的机会,这就是谷歌可以实现持续增长的广告收入这样的一个前提条件。

       

在这样一个算法如此强大的商业语境中,我们自己和算法之间会不会有一种实力悬殊的感觉?这是我们讲的第一个例子。

       

我们的第二个例子讲自动驾驶,大家都听过有一个著名的哲学难题叫电车难题,这个著名的电车难题,其实在自动驾驶中成为一个现实,奔驰公司的负责自动驾驶开发的经理曾经接受采访,有人问到说如果有一个特别紧急的情形,车内的乘客或者路上的行人之间,你要选择一方,你要选择保护谁?奔驰的这个产品经理说:我们是一个车企,我们要去卖车,当然我们要保护车内的行人,而不是路上的行人。这个回复一出,引起了轩然大波,因为人们突然发现说,在自动驾驶这样一个技术语境中,路上的行人有着不成比例的交通事故的危险,这就让奔驰不得不收回了它的立场,说这个并不是我们奔驰官方的立场。

       

好,但是到底应该如何选择?这是另外一个经典的伦理问题,当然这个伦理问题是已经有人给出一些解决方案,我们下面会提到。我想问的是,在这样一些零零总总的、纷繁复杂的人工智能伦理问题中间,到底什么是它的本质?

      

我们看到在所有这些技术语境下,出现人工智能伦理问题,是因为我们遭遇了创造秩序危机,也就是说人被自己创造的技术所反噬的可能性。它包含着两大难题,第一个难题叫终级准则难题,这个我们在自动驾驶的语境中看到了,因为即便在我们人中间,其实对这个问题也公说公有理,婆说婆有理。在技术语境下,我们就更难解决了。

        

大家基本上认为人工智能可以分为专用人工智能,也就是说弱人工智能;通用人工智能,也就是我们说的强人工智能;还有就是超级人工智能,智力远远超过人类的。在超级人工智能的语境下,当然我们看到这两大难题同时出现,我们真正遭遇了非常让我们能够内心得到共鸣的创造秩序危机。

        

有人讲说,如果你的家里有一个人工智能的服务机器人,然后你说肚子饿了,帮我准备食物,当主人再回来的时候,看到他心爱的宠物猫正在被烹饪,一个如此强大的工具,他如何被我们使用而不伤害我们?这是我们遇到所有人工智能创造秩序危机的一个追问。问题的关键是,人工智能没有达到人的智能,却被赋予了为人决策的责任,这是我们遭遇这些人工智能伦理问题共同的场景,那我们怎么办?

       

这也是最近我们在人工智能标准化的过程中正在进行的一项工作,我们希望说对人工智能的产品、服务,所有用到人工智能技术的,都可以进行一个伦理风险的评估。这个评估我们希望它非常简明,就像我们使用白色家电的时候用到的效能标志一样,我们可以通过绿色、红色来评估它的伦理风险程度。我们发现了它的伦理风险之后,所有的利益相关者,从技术人员到我们用户、到厂商都可以及时的介入,来校准它的价值。只有这样,人工智能这样一件非常强大的技术,它才能真正实现不伤害人,造福于我们人类社会。好,谢谢大家。


更多精彩,

赶紧关注视频号@一刻talks吧!

别忘了给喜欢的内容点赞哦~


往期精选


 对话许知远:社会的焦虑,和人文传统的消失有关
★ 马斯克只高兴了8分钟
★ 被“异化”的岂止外卖骑手?还有都市大部分的“狂奔者”
点击阅读原文,下载“一刻talks”App观看完整视频~

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存