近期,创新工场董事长兼首席执行官李开复博士,联合科幻作家陈楸帆,出版了新书《AI未来进行式》,创造性地将科技与科幻融合,畅想了 20 年后在人工智能等科技影响下的人类世界。
作为深耕硬科技的 Deep Tech VC,创新工场投资的很多硬科技蓝图,在书中得到了来自未来的成熟应用场景展现。书中的 10 个短篇故事,展示了一系列的未来场景 —— 身临其境的沉浸式娱乐方式、自如使用人类语言的虚拟伴侣、 没有“司机”的完全自动驾驶汽车、能够以假乱真的照片和视频,以及基于量子计算、计算机视觉和其他 AI 技术的展开应用……
《AI未来进行式》开篇的故事发生在印度孟买,一个当地家庭参与了一项由深度学习赋能的智能保险计划。为了改善这家人的生活,该计划的 AI 保险程序通过一系列的生活应用与这家的每位成员相连,这些应用与保险算法进行动态互动。然而,正值青春期的女儿却发现,这套 AI 保险程序似乎总是在“巧妙”地阻挠她追求爱情……
《一叶知命》这个故事中,象头神保险公司使用了深度学习技术的力量,帮助投保人“活得更长久、更健康、更安全”。
那么,深度学习技术就没有任何陷阱吗?事实上,如何平衡好技术的尺度也是故事想要探讨的内核,这个问题也引发了人们对 AI 基础概念之一——深度学习——的思考。
研究人员应该如何开发、训练和应用深度学习?深度学习有哪些局限性?数据将如何推动深度学习的发展?深度学习在什么条件下才能发挥最大价值?
—1—
深度学习:能力惊人但也力有不逮
第一篇阐述深度学习的学术论文发表于 1967 年,但这项技术却花了近 50 年的时间才得以蓬勃发展,之所以经历了这么长的时间,是因为深度学习需要海量的数据和强大的算力,才能训练多达几千层的神经网络。如果把算力比作 AI 的引擎,那么数据就是 AI 的燃料,直到最近 10 年,算力才变得足够高效,数据才变得足够丰富。如今,智能手机所拥有的算力,相当于 1969 年美国国家航空航天局(NASA)把尼尔·阿姆斯特朗送上月球时所用电脑算力的数百万倍。除算力的大幅提升外,数据量的增长也不遑多让—— 2020 年的互联网数据量,几乎是 1995 年时的 1 万亿倍。尽管深度学习的最初灵感来源于人类的大脑,但二者的运作方式截然不同:深度学习所需要的数据量远比人脑所需要的多得多,可是一旦经过大数据训练,它在相同领域的表现将远远超过人类——相对来说,人类在同一时间内只能把注意力放在少数几件事情上面,而深度学习算法却可以同时处理海量信息,并且发现在大量数据背后的模糊特征之间的关联,这些模糊特征不仅复杂而且微妙,人类往往无法理解,甚至可能不会注意到。此外,在借助大量数据进行训练时,深度学习可以针对每一个用户提供定制化的服务——基于海量数据中较相似用户的数据,对每个用户做出贴切的预测,以达到千人千面的效果,例如当你访问淘宝时,它的 AI 算法会在首页醒目的位置向你重点推荐你可能愿意下单购买的商品,刺激你的消费欲,让你最大限度地在淘宝消费。深度学习的能力非常强大,然而它并不是“包治百病”的灵丹妙药。虽然深度学习拥有人类所缺乏的并行处理海量数据的“绝技”,但不具备人类在面对决策时独一无二的汲取过去的经验、使用抽象概念和常识的能力。与人类相比,深度学习要想充分发挥作用,离不开海量的相关数据、单一领域的应用场景以及明确的目标函数,这三项缺一不可,如果缺少其中任何一项,深度学习将无用武之地。—2—
深度学习带来的问题
任何强大的技术都是一把双刃剑,深度学习在给人类带来便利的同时,又会带来什么问题呢?- 第一个问题是,深度学习会使 AI 比你更了解你自己。
2020 年奈飞(Netflix)高分纪录片《智能陷阱》(The Social Dilemma)就展现了 AI 个性化推荐如何让人们在无意识中被操纵,使 AI 应用程序背后的利益方达成目的。正如在纪录片中出镜的谷歌前产品设计师、设计伦理学家特里斯坦·哈里斯(Tristan Harris)所说的那样,你在手机上的每次点击都会激活价值数十亿美元的超级计算机,它会根据从 20 亿用户的行为中学习到和提取到的经验,对准你的大脑,企图左右你的思维。
对于用户来说,对个性化推荐上瘾的行为会导致恶性循环。AI 应用程序为用户提供符合其特征的个性化推荐,使用户不断接收到其所偏好的信息,然后就不知不觉逐渐被困在“信息茧房”里,拒绝接收不符合其固有认知的异质信息。应用程序根据用户接收信息的行为特征,向用户推荐更多的其所偏好的同质信息,会而使用户陷入“乐此不疲”的快感,难以自拔。从技术层面来说,上述问题的关键在于目标函数的单一性,以及 AI 专注于优化单一目标函数所带来的不利的外部效应——如今,AI 所训练的目标函数通常针对的是单一目标,例如赚钱(或者更多的点击量、广告),因此,AI 有可能过度热衷于企业的目标绩效,而不考虑用户的福祉。一种通用的方法是让 AI 的目标函数变得不再单一。例如对于权衡用户花在社交网络上的时间这个问题,特里斯坦·哈里斯建议把“用户在社交网络上花费的有意义的时间”也作为衡量标准之一,而不是仅限于“用户在社交网络上停留的时长”,通过同时考量这两者,制定出混合型的复杂目标函数。AI 专家斯图尔特·拉塞尔(Stuart Russell)提出了另一种解决方法,他主张在设计目标函数时需要考虑人类的福祉,并让人类更大程度地参与数据标注和目标函数的设计,比如我们能否建立关于“更大的人类利益”的目标函数——诸如“人类的幸福”之类的目标函数?能否让人类来定义和标注什么是幸福?所有这些方法,不仅需要对 AI 的复杂目标函数展开更加深入的研究,而且需要对“所花费的有意义的时间”“维护社会公平”“幸福”等概念进行量化。不过,这些方法会使企业的盈利变少,那么如何激励企业让步做正确的事情呢?一种方法是制定法规,对某些伤害人类福祉的行为给予处罚;另一种方法是对企业承担社会责任的行为进行评价,比如目前 ESG(环境、社会和公司治理)得到了越来越多的来自商业界的关注,或许负责任地使用 AI 也可以成为未来 ESG 的一部分,以鼓励企业的正面行为;还有一种方法是建立第三方监管机构,监督企业对技术是否有不当使用,例如追踪产品中出现虚假新闻的比例或 AI 算法导致歧视的诉讼案件数量,并向企业施压,要求企业把考虑用户的福祉纳入到技术中;最后,特别困难但又特别有效的一种方法是,确保 AI 技术持有者的利益与每个用户的利益达成100%的一致。- 深度学习所带来的第二个问题,就是会使不公平和偏见得以延续。
AI 完全基于数据优化和结果优化进行决策,理论上应该比大部分人更加不受偏见的影响,但是,其实 AI 也可能产生偏见。比如,倘若用于训练 AI 的数据不够充分、全面,对某些群体的覆盖率不足,那么就会产生偏见。曾经有一家著名公司的招聘部门发现,因为训练样本中女性的数据不够,其所使用的 AI 软件不看好女性候选人。再如,倘若训练数据全部收集自一个有偏见的环境,那么数据本身就可能带有偏见。微软的 Tay 对话机器人和 OpenAI 的语言模型 GPT-3,都生成过歧视少数群体的言论。尽管这些偏见和歧视并非出于AI的本意,但是仍会造成极其严重的后果,而且如果把带有偏见的 AI 应用于医学诊断或者司法判定,那么其风险将无法想象。因此,我们需要全力以赴应对 AI 的公平性问题和偏见问题。第一,使用 AI 的公司应该披露 AI 系统被用在哪里以及使用目的。第二,AI 工程师应该接受一套职业道德准则的培训——类似医学生宣誓用的“希波克拉底誓言”。这样,工程师才能深刻地理解,他们所从事的职业使他们承担了把事关伦理道德的重要决策嵌入到产品之中的任务,这是足以改变他人人生轨迹的事情,工程师有责任承诺维护用户的权益。第三,工程师使用的 AI 训练工具应该嵌入严格的测试机制,以对基于样本比例不公平的数据训练出来的计算模型发出警告或彻底禁止生成模型。第四,应该制定 AI 审计法。这与传统的财务审计或税务审计类似,AI 公司被举报后,政府需要派遣专家对其进行审计。如果一家公司在 AI 的伦理道德或者公平性方面多次被投诉,它的 AI 算法就必须接受审计,以检查、确定其是否存在不公平、偏见或隐私保护方面的漏洞。人类总是能解释人类决策背后的原因,因为人类的决策过程本身比较简单,是基于经验积累得出的规则。可是,深度学习的决策基于复杂的方程组,这种方程组有数千个特征和数百万个参数,深度学习决策的“理由”,就是在一个有数千个维度的“空间”里经过海量数据训练而得出的数学方程组,要把这个方程组精确地简化成一个人类可以听得懂的“原因”,基本上是不可能的。但是,无论是出于法律的考量,还是出于用户的期望,许多关键的 AI 决策都需要给出一个解释。为了解决这一问题,目前,人们正在进行许多相关的研究,这些研究试图简化、总结 AI 复杂的逻辑过程,或者发明具有可解释性框架的 AI 算法,从而使 AI 变得更加“透明”。阅读更多内容,身临其境体验 2042 年的世界,了解 AI 将如何影响我们的生活,欢迎关注创新工场董事长兼首席执行官李开复博士X科幻作家陈楸帆的新书《AI未来进行式》。