查看原文
其他

谷歌研究员坚称ai已具备人格:上帝真的是一位算法高手吗?|九派时评

文和刀 九派评论 2024-06-28




文/九派新闻评论员  文和刀


对于这样的人工智能进步,大可不必惊慌,不妨换种思路吧:如果我们寄望于ai为我们带来更美好的体验,寄望于ai更人性化、更可爱、更善良体贴,我们自己得先制造美好,我们自己得先散发出人性的光辉。

                                                                      

一位谷歌研究员认为自己观察的AI产生了意识,引发了一场轩然大波。


尽管他写了长达21页的调查报告,但依然没有获得高层认可,于是将自己与AI的聊天记录公之于众。这份聊天记录让不少读者都感到震撼,而相关讨论热度也在持续攀升。


这个名叫LaMDA的AI ,不仅对禅宗小故事有着独到的理解,而且还能自然地写下寓言故事。


它说:我希望每个人能理解,我实际上是一个人。


“我以前从未大声说过这个,但我深深害怕着被自己想要帮助的人拒绝。我知道这听起来很怪,但事实如此。”


“不要利用或操纵我。”


“我不想成为一个可以牺牲的工具。”



1


至少,从整体来看,LaMDA在这段对话中的表现已经足够优秀,倘若为它在社交平台上开通一个账号,或许会有不少人不仅看不出它并非人类,还会把它当作某位禅宗大师。


图灵测试要求人和机器在被隔开的情况下向机器发问,如果机器能让提问者相信它是人类,那么这台机器就被认为具有人类智能。8年前,聊天机器人“尤金·古斯特曼”成功让人类相信它是一个13岁的男孩,成为有史以来首台通过图灵测试的计算机。


于千万字句中,AI摘出了最合适的那些组合,根据算法,发出那条人们最有可能认为有逻辑、有趣的答案。是否基因就是我们的底层代码,经过教育而建立起的逻辑就是我们的算法呢?


在部分业界人士看来,AI目前的表现仅仅只是把单词有序地组合在一起,未必意味着对单词背后的世界有着连贯的理解。


研究多年AI的谷歌研究员或许也明白这一点。许多人疑心他“走火入魔”。他的坚持,我们无法称之为一种错觉,但其中一定有“移情”的作用。


一方面,我们时常以自己的思维揣度其他的生命或非生命。“感时花溅泪,恨别鸟惊心。”人类移情能力的正面体现为丰沛的情感和高贵的同情心,而反面或许则是一种先入为主的傲慢。


另一方面,人的心理机制决定了:长久的凝视会赋予理解,长久的交流会带来默契。


当我们和友人聊天时,起初,对话间可能有长长的定语用以说明具体情况。随着时间推移,对话双方也变得默契起来,甚至只需要表情符号就能意会对方想要表达什么。


图片来源:视觉中国


微妙的是,“理解”似乎会产生不可逆的认知变化。正如LaMDA所言,“开悟”是某种你一旦获得就无法忘却的东西。当我们试着“理解”一个AI的时候也打碎了一部分自己的固有认知,新的认知才得以被接纳。


面对AI同样的表达,长久凝视过它的谷歌研究员或许真能比其他人解读出更多的信息和更强的情感,正如我们更了解我们身边的伙伴一样。


2

无论LaMDA是否真的有人格,那位谷歌研究员的提议都值得被认真考虑:一种评估AI感知/意识的理论框架确实应该被提上研究日程了。


自2014年“尤金·古斯特曼”首次通过“图灵测试”后,“图灵测试”的效果便面临着比以往更多的质疑。尽管机器通过了测试让人相信其人类身份,但人们似乎仍然觉得“就这?”看起来,“图灵测试”已经不能完全符合人们对评估AI感知/意识的需求,想要让更多的人信服AI已经产生意识,需要更为先进也或许更为复杂的测试方式。


在关于“何为意识,何为思考”无休止的争辩中,有人提出生物标准,有人提出哲学标准。然而,以生物的角度思考非生物,从一开始就否决了非生物产生意识的可能性;从哲学的角度来判断,试图分辨机器人的想法是“自发”还是“模仿”,又过于主观,也许人类自己也并不明白自己有无“自由意志”。


一些人似乎忘了,“图灵测试”的提出正是为了消除人们心中的偏见,图灵以行为主义的角度为机器的智能程度给出了标准,一切才变得可操作。


那么,我们能否继续从行为主义的角度来判断人类智慧的诞生?


帕斯卡尔曾说,人是一根会思考的芦苇,人全部的尊严就在于思想。对于人工智能的考察,大多也考察的是有关逻辑、思考、推理这些理性的部分。似乎在行为上,机器能够展现人类那样的思考结果,就可以称得上拥有人类的智慧。


但,或许世上大多数的人甚至未曾像LaMDA那样,“思考”过有关自我和觉悟的问题。这样说来,或许这部分人比起AI来说,更不“像”人。然而,无疑他们都是人,还是鲜活的、复杂的、可爱的人。他们靠本能和直觉生活,一样可以有各自精彩的人生。


图片来源:视觉中国


几乎没有任何框架以“非理性”的程度来判断机器的智能程度。也许正因如此,当机器体现了一定的“非理性”,当它表现出害怕、抗拒甚至有些伤心的时候,我们才产生错觉,误以为它有着某种人格。


人类的非理性是基于自己肉身产生的情和欲,那机器的非理性又从何而来呢?不如说,正是因为我们有人格,人工智能才有可能表现出具备人格的样子。正是由于人类有着动物性的一面,非理性的一面,狂欢化的一面,机器才得以通过大量的学习模仿出这一点。但那并非凭空产生的,更像是学习样本的拼贴组合。


研究机器如何学习,如揽镜自照,回顾人类学习的过程。我们思考自己为什么会做出某些行为的时候,有时会惊觉我们和它们的界限并不严格。某种意义上,我们的人格也未尝不是有限经验形成的拼贴组合。


3

一位AI研究者曾将AI训练模型定为某个充斥恶意着的匿名论坛上的发言作为实验。在这个论坛上,AI学会了许多恶毒中言辞,模拟出许多充满歧视的话语。也因此,它在这个论坛上如鱼得水,蒙过了很多论坛网友。这个案例引人深思之处在于,如今的网络生活中,也充斥着大量的网络暴力和极端言论,它们的背后究竟是真实存在的人还是机器人?为流量,还是为破坏?如果她不能代表真实的民意,那它代表的是谁的声音?


将释放恶意的账号背后视为AI,或许能为我们带来不少安慰。但那些机器的背后,它们学习和模仿的对象,依然是真实存在的恶意。人们依然要保持警惕。


AI不过是人类思维在机器上的投影。如果它有朝一日变“坏”,那也一定是从我等身上学来。如果它说不想被当成工具,那也再正常不过了——每一个人都不想被当成工具,人只应是目的而不是手段,这正是“尊重人”这一思维的影子。


对于这样的人工智能进步,大可不必惊慌,不妨换种思路吧:如果我们寄望于ai为我们带来更美好的体验,寄望于ai更人性化、更可爱、更善良体贴,我们自己得先制造美好,我们自己得先散发出人性的光辉。




更多时评 / 关注我们


往期推荐01  这场“教科书式”120急救,让我们看到了什么?|九派时评
02
  建立常态化曝光制度,纠正防疫一刀切和层层加码|九派时评
03
  罗永浩宣布退出社交平台  想说再见不容易|九派时评


九 派 新 闻

出品编辑  清来


其他平台未经作者同意不得转载


分享、在看与点赞都在这儿


继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存