人工智能安全风险“迷思”
“
需要注意“为了人工智能而人工智能”的虚假繁荣。毕竟,人工智能技术的发展是为了人的发展,不应反过来将人及人所创造的环境“削足适履”。
本文字数3511,阅读时长约12分钟
文|贾开 电子科技大学公共管理学院副教授
编辑|朱弢
近一段时间,两件事情引起了人们的普遍关注。
第一是ChatGPT的迅速普及,使得我们正在经历自2016年AlphaGo战胜李世石比赛之后的第二次社会性“洗礼”,ChatGPT为跨领域用户提供多功能内容生成服务,将通用型人工智能能否实现这一关键问题再次推上了风口浪尖。
第二是在俄乌冲突一周年之际开启的慕尼黑安全会议上,以人工智能为代表的新兴技术的“双刃剑”影响,成为仅次于地缘政治的第二个重要议题。利益相关方普遍关心,技术带来的不对称优势与不确定风险,并试图找到合适的全球治理之道以做出应对。
上述两件事情构成了当前时代的重要主题:面对着新兴技术可能出现的一个又一个重大突破,人们在充满憧憬并赋予希望的同时,也越来越担心潜藏的安全风险与挑战。
这一主题正在被不同的研究报告或社会调查所揭示。例如,爱德曼公关公司每年发布的《全球信任度调查报告》指出,2012年至2022年的十年间,尽管人们对于“技术”部门的信任度始终最高,但相比于金融、娱乐、能源等其他行业领域,技术部门却是唯一一个信任度下降的领域。2020年的报告更具体地指出。超过60%的人认为,“技术发展步伐太快、数字技术模糊了真相,以至无力规制新兴技术风险”。
01
“迷思”何来?
对于人工智能而言,其试图实现或达到人类智能相同水平的技术发展目标,使之不同于历史上的任何一项技术,而对人类以及整个社会的运行传统提出了系统性的变革要求。
在此过程中,无论是针对个体权益的算法歧视、隐私侵害、劳动替代等冲击,还是社会整体层面的信息茧房、虚假新闻等影响,以至国家层面的技术、产业、主权等安全性风险,都构成了利益相关方的普遍性担忧。
随之而来的,便是探索对此时代问题的解答。
很直接的答案当然来自于治理体系的改革与重构:人工智能伦理治理原则的提出与共识、人工智能分级分类管理体系的建构与完善、人工智能治理风险评估工具与机制的形成与丰富,都是必要且迫切的相关工作。但在这些针对具体安全问题探索治理答案的思路之外,不可忽视的另一重要议题在于,我们到底应该如何界定人工智能的安全风险?
换言之,人工智能的安全风险到底指的是什么?如果人工智能能够全部替代人类的话,那么安全风险的应对就需要被界定为对通用型人工智能开发与应用范围的限制;而如果通用型人工智能只是一种想象,其并不能独立于环境而实现的话,那么安全风险更应该被界定为技术的误用或滥用,也即我们不正确地改造了人类环境以使之适合人工智能的应用需求——而这便是本文所称“迷思”的原因所在。
对此“迷思”的探索,或许需要回到对人工智能本质的理解与界定上。
现代人工智能概念往往被视为起源于1956年的达特茅斯会议,但正如会议的组织者麦肯锡所言,之所以命名为“artificial intelligence”,是试图与之前研究者所提出的相关概念区分开,以更多聚焦其作为解决问题工具的功能主义内涵。
不过,这一理解在人工智能逐渐引起全面性治理变革背景下明显已过于局限,其难以完整揭示出人工智能与现实世界的复杂内在联系,超越达特茅斯会议并在更大视野下理解人工智能的发展史,应该成为当前讨论人工智能安全风险治理的新思路。
02
站上先驱的肩膀追根溯源
就此而言,对冯·诺伊曼(John von Neumann)、诺伯特·维纳(Norbert Wiener)以及阿兰·图灵(Alan Mathison Turing)三位先驱的智能思想进行回顾,是一个有益起点。
在这三个人的思考中,人工智能,或者说更一般意义上的“机器智能”概念,大致具有两种实现路径:即“基于生物行为机制”,或者“基于生物行为结果”。
对于冯-诺伊曼和维纳来说,其共同的兴趣在于寻找生物体(大脑)、数学逻辑与机器的相通性,在理解生物智能机制的基础上将其数学模型化,并用以指导“智能”机器的设计与制造。
作为现代计算机的设计者,冯-诺伊曼对于机器智能的思考始终与计算机的制造与实现联系在一起,因此其也始终面临着双重复杂性的挑战:一方面是生物体智能机制不清晰并因此难以通过逻辑模型得以表达;另一方面则是如何在有限时间、有限资源内模拟生物智能的运行过程。
1943年,沃伦·麦卡洛克(Warren MuCulloch)和沃尔特·皮茨(Walter Pitts)关于神经元网络的模型化研究推动了前一个问题的部分解决,而冯-诺伊曼则提出以“自动机(automata)”模型来解决第二个问题。
但即使如此,自动机模型仍然不能回应的问题在于,简化模型能否且如何在自我复制和进化过程中形成解决复杂问题的能力——而这却恰恰是生物进化的特征所在。
与冯-诺伊曼类似,维纳同样重视基于对生物智能机制的理解来设计机器智能。但与冯-诺伊曼不同,维纳的思考并不局限于生物智能的数学模型化或者以机器来模拟生物智能,其更关注“智能”的本质及其在生物体和人造机器上的体现,并以此为起点设计能够满足特定目的的机器。
由此,维纳笔下的“控制论”并不致力于像冯-诺伊曼那样以形式化的数学模型实现机器智能,而是在指出“信息”和“控制”作为“智能”本质内涵的基础上,以启发式的逻辑指导不同场景下的机器设计:有的场景可能是确定且精准的,并因此可以通过数学模型加以表达;但有的场景可能是思辨或模糊的,并因此更依赖实验性反馈与调整。
相比于冯-诺伊曼与维纳对于生物(人脑)机制过程的关注,图灵提出了另外一条实现并判别机器智能的方式,即关注智能行为的结果而并不在意其是否是对于生物(人脑)的模拟。
在图灵看来,“机器能否思考”的问题过于模糊,以致难以定义,但从行为结果的近似性上则可以清晰界定机器智能的标准,这也是“图灵测试”的基本内涵。
以此为起点,图灵不再如冯-诺伊曼般关注机器实现的具体部件或结构,转而聚焦计算机的算法设计问题,并基于“图灵机”模型提出了“可计算问题等同于图灵可计算”的理论命题。
随后,哥德尔、波斯特、邱奇等人的工作被证明与“图灵机”在计算能力上是等效的,由此强化了数学领域的可计算判定问题与计算机领域的算法设计问题的等效性。
迈克尔·斯特雷文斯(Michael Strevens)在较近出版的《知识机器》中提出,近代科学革命应该被理解为“以取得经验验证的局域性因果解释(浅层解释)为目标的科学共同体规范”的形成过程,而这也被其称为科学的“铁律”。
所谓“浅层解释”,是指近现代科学抛弃了传统科学哲学家试图理解现象本质及其因果关联的努力,转而致力于追求可观察现象的精确描述与推导解释。按照这一标准,不难发现在冯-诺伊曼、维纳、图灵三人中,只有图灵满足了近现代科学“铁律”的要求:只关注智能行为的结果而不需要对产生结果的过程(也即智能行为的本质)给出因果解释,从而绕开了不同研究者的主观性假设而直接追求可计算、可预测的实践目的。
也正因为此,图灵拒绝了与生物学的跨学科对话,并进一步将机器智能的实现问题转化为了数学上的可计算问题,从而定义了该领域的研究范式与边界。
与之相比,冯-诺伊曼和维纳仍然试图通过跨学科对话挖掘智能的本质,并在此过程中指导机器智能的实现路径。
03
人工智能的根本,还是为人类服务
通过对先驱者的思想总结,我们可对前文所提出的人工智能安全“迷思”问题做出初步回答。
关于人工智能安全风险到底是源自其作为通用型人工智能的普遍性变革,还是源自在克服环境复杂性、计算复杂性过程中的误用或滥用,事实上反映了我们对于人工智能本质的不同理解。
从图灵视角来看,绕开智能行为过程的探索而直接接近智能行为结果,是实现通用型人工智能(也即“通用图灵机”)的重要方式;而站在冯-诺伊曼和维纳视角来看,智能行为过程的探索不可或缺。
在经过几十年的发展后,到目前为止仍然难以判定究竟谁才是正确的,不过从当前发展阶段来看,图灵路径无疑正在取得巨大成功,ChatGPT本身就可被视为图灵测试的典型体现——但这并不意味着,冯-诺伊曼和维纳路径的失败。
一方面,ChatGPT往往所表现出的“一本正经胡说”特征,仍然表明语言作为人类智慧载体的功能始终是局限的,究竟能否从“量变”实现“质变”尚不可知。
另一方面,或许更为重要的,在于冯-诺伊曼和维纳仍然时刻提醒我们要将人工智能技术的开发、应用与现实环境紧密联系起来。当通用型人工智能尚未出现时,另一条思路仍然是在接受当前技术发展水平的基础上去探索其合适的应用场景。
在此意义上,我们便需要更加注意“为了人工智能而人工智能”的虚假繁荣。毕竟,人工智能技术的发展是为了人的发展,我们不应反过来将人及人所创造的环境“削足适履”,通过削弱双重复杂性的方式来满足特定技术的使用条件——而后者无疑更是当前安全风险的重点所在。