我们如何知道人工智能有了意识?
KEYPOINTS
○ 心灵哲学中假设存在一种和一般人类行为相似但缺乏主观意识的个体,这就是所谓的“哲学僵尸”。
○ 有哲学家认为,人类的意识体验由感受质组成。感受质可意会不可言传。哲学僵尸能回答意识相关的问题,但对此没有主观感受。
○ 作者认为,当AI能完全靠自己提问关于主观感受的问题时,就被认为具有了意识。当前急需意识相关的图灵测试,来判断AI是否具有意识。
澳大利亚哲学家大卫·查莫斯(David Chalmers)提出了著名的哲学问题:“哲学僵尸”是可设想(conceivable)的吗?我们身边是否生存着行为表征与你我相似,却缺乏主观体验的个体?
这个问题让包括我在内的众多学者对意识问题燃起了兴趣。该问题的逻辑在于,如果哲学僵尸或精密但无感情的机器人是可设想的,那么仅仅用物理属性——关于大脑或类似大脑的机制——不足以解释意识体验。我们的意识需要通过额外的心灵属性来解释。弄清楚这些心灵属性是如何产生的,已成为意识研究中的“困难问题”。
我对查莫斯的僵尸有一点小小的困惑。哲学僵尸能够对于经验的本质提出问题。这让人不禁想问,没有体验的人或机器人是如何对自己不曾经历过的体验提出问题的?神经科学家、作家山姆·哈里斯(Sam Harris)曾在自己的播客节目《Making Sense》中邀请了查莫斯。在这期播客中,查莫斯对这个问题提出了自己的看法:“设想一个这样的系统并不太难,”查莫斯对哈里斯说道。“比方说,我现在跟你聊天,你对意识作出了一些评论,看上去像是有意识的样子。但我仍旧可以这样解读:即便从外部看起来你发出了不少声音,但从内部来看,你依旧是一个没有意识的僵尸。”
这不是一个严格意义上的学术问题。比方说,假如谷歌的DeepMind开发的人工智能开始提出“为什么红色看起来像红色而不是其他的颜色”这样的问题,我们只能作出几种可能的解释。或许这个人工智能从别人那听到了这个问题——它可能通过阅读研究意识的论文来提出与意识相关的问题。或者,人们在编码时赋予了人工智能问出这个问题的能力,这代表它们和电子游戏中的角色没有什么不同。又或者,这个人工智能只不过是在随机拼凑中恰好问出了这个问题。提出与意识相关的问题,并不代表个体具有意识。人工智能僵尸能完全依靠自身提出意识问题吗?我认为答案显然是否定的。如果我是对的,那么,倘若人工智能真的开始自发提出关于主观体验的问题,我们就需要认真考虑它们是否具有意识。关停一个具有意识的人工智能可能触及伦理问题,因此,我们需要尽早考虑它们的意识问题。
▷ 《西部世界》剧照
我们的意识体验是由感受质(qualia)组成的。感受质是感觉的主观角度,比如红色的红、糖果的甜。组成意识体验的感受质不能消减,也无法投射至任何其他的事物上。如果我生来就没有视觉,那么,无论多么巧舌如簧的人也无法让我感受到血液与玫瑰共有的颜色。即便我是少数几个发展出盲视能力的盲人——能躲避障碍、精确猜测出计算机显示屏上的物体出现在什么位置,我依然无法真正感受到红色。
盲视的存在或许代表着,行为可以是纯粹机械化的、不需要任何主观知觉的——这听起来与查莫斯的僵尸相差无几。在盲视者的大脑中,视觉系统的前意识(preconscious)区域较为发达,这或许给了无视觉经验的盲视者作出观察行为的能力。大脑皮层中处理视觉信息的视觉皮层受损或出现脑卒中的个体,更可能发展出盲视能力。这可能是由于患者依旧健康的双眼将视觉信息传送到了意识捕捉不到的大脑区域,如上丘(superior colliculus)。
与之类似,有几个记载聋听(Deaf hearing)的案例。2017年发表在《哲学心理学》(Philosophical Psychology)上的一篇报告详尽记录了这样一个病例。患者LS天生耳聋,但能够根据声音的内容进行辨别。对于LS这样的人而言,他们是在寂静中察觉差异的。但如果他们能够像有正常听力的人一样提问:“刚才那个声音是不是不太悦耳?”那我们就有充分的理由怀疑这个人根本就没有耳聋。(如果这个问题不是一句玩笑话的话。)同样的,如果一个人工智能自主提出了有意识个体才能问出的问题,我们也就有理由怀疑这个人工智能发展出了主观体验。
21世纪急需针对意识问题的图灵测试。人工智能已经开始学习开车、诊断肺癌,甚至是编写自己的计算机程序。十年或二十年后,我们或许就能够实现智能交流,而这些未来的超级人工智能可不是生活在真空中。它们能够获取网络信息,能翻阅查莫斯及其他研究意识、感受质的哲学家们的所有著作。但如果科技公司先在局部网络中对这些人工智能进行图灵测试,就能在人工智能接触意识问题之前探测它们是否具有感受质。
我们该对这些可能的硅基意识提出什么问题?人工智能如何回应“你对蓝色的感受是否有可能与我对红色的感受相同?”或者“这个世界上会不会有比绿更绿的颜色呢?”,将揭示出它们是否有主观经验。具有视觉经验的人工智能可能会这样回答上述问题:“是的,有时候我也想知道世界上是否存在能把红色的红与蓝色的冷相结合的颜色。”与之相反,一个缺少视觉感受质的人工智能可能会这样回答:“这不可能,因为红色、绿色和蓝色各自具有不同的波长。”而假如人工智能想要配合或欺骗我们,它可能会给出这样蹩脚的回答:“听起来有趣,那我对红色的感受会不会与你对汉堡包的感受相同?”这显然也不是一个有意识的人工智能的作答。
▷ 图片来源:Matthew Lancaster
当然,人工意识的感受质也可能与我们的截然不同。上述颜色感受质的问题或许无法难住人工智能,但更抽象的问题或许能帮我们筛选出哲学僵尸。出于筛选的目的,最好的问题可能是那个困难问题:意识为何存在?为何处理外界环境的输入刺激能赋予你感受质呢?如果人工智能够理解这些问题,那它可能就具有意识。而明显无法理解“意识”或“感受质”等概念的人工智能,可能就不具备意识。
创造意识探测器不是一个简单的任务。未来,研究者可能将如今关于意识的抽象理论用于推断计算机是否具有意识。其中一个理论通过大脑或其他系统能够整合的信息量来判断意识是否存在[1],该理论已经被应用于判断脑损伤病人或鱼群是否具有意识。对脑损伤病人意识情况的判断需求,让“意识”不再是一个科学家们不可言说的迷信词汇。
编者注:
[1]该理论指整合信息理论(Integrated information theory, IIT),它试图解释为什么某些物理系统(例如人脑)具有意识,并通过量化的Phi值(Φ)来表示这些系统的意识程度。整合信息理论认为意识的关键在于信息整合,而处理该过程的脑区或许位于大脑后端。
目前,我在加州大学洛杉矶分校马丁·蒙蒂(Martin Monti)的实验室工作。我们认为,倘若能更精确地从脑电活动以及大脑代谢活动中读取意识,我们就能极大地提高脑损伤病人的生活质量。面对还有意识,但无法作出行为反应的病人,放弃他们的生命是一场伦理灾难;与之类似,终止运行一个有意识的人工智能同样也面临着伦理问题。在UCLA,我们会通过比对意识测量的理论标准,来判断病床上的脑损伤病人是否还有意识,同样,未来的研究者们也需要通过意识的类图灵测试,来判断人工智能的行为是否表明其具有意识。而对于那个哲学僵尸无法回答的问题,我们还需要更深入的思考。
作者:Joel Frohlich
翻译:山鸡
审校:夏天
编辑:EY
原文:https://nautil.us/blog/-heres-how-well-know-an-ai-is-conscious