其他
谷歌研究员被群嘲:LaMDA有人格是胡说八道!谷歌也回应:想多了,就是会聊而已
解释最新科技进展,报道硅谷大事小情
跟统计机器谈感情,你就输了。
——
文|杜晨 编辑|VickyXiao 题图来源:News Text Area、谷歌
什么?AI 具备人格了??谷歌前不久搞出来了一个超大规模语言模型 LaMDA。公司里有个研究员 Blake Lemoine 跟它聊了很久,对其能力感到十分惊讶,于是下了个结论:LaMDA 可能已经具备人格了。(原话用的词是 sentient,在不同的语境下可以被翻译为感情、智慧、知觉等。)很快,这位仁兄就被“带薪休假了”。
但他不是一个人:就连公司 VP Blaise Agüera y Arcas 都在发表文章,表示 AI 在获得意识方面实现了巨大进步,“已经进入了一个崭新时代。”
| AI具备人格?众大佬嗤之以鼻斯坦福 HAI 中心主任 Erik Brynjolfsson 直接把这件事比喻为“面对留声机的狗”,他发推表示:“基础模型 (foundation models,也即自我监督的大规模深度神经网络模型) 非常擅长做的一件事,就是根据提示,将文本采用统计学上合理的方式串起来。但是如果你说他们是有知觉的,就好比狗听到留声机里的声音,以为它的主人在里面一样。”
1)大家天天炒的 AI 并不是真的 AI,而是统计学系统,是机器人 (robot);2)我们不应该赋予机器人权利;3)我们甚至压根就不应该讨论是否要赋予机器人权利……比利时 Donders Institute 计算认知科学教授 Olivia Guest 也加入了“战局“,称整个事情的逻辑是错乱的。“‘我看到的东西像人,因为我按照人的样子开发的它,所以它是一个人’——简直是倒骑驴的逻辑。”
事情在社交网络上发酵之后,谷歌很快作出了回应:LaMDA 和公司近几年的大型 AI 项目一样,都经过了多次严格的 AI 道德方面的审核,对其内容、质量、系统安全性等进行了多方面的考量。今年早些时候,谷歌也专门发表了一篇论文,公开了 LaMDA 开发过程当中的合规细节。“在 AI 群体内,对于具备感知的 AI/通用 AI 的长期可能性,确实有一些研究。然而在今天把对话模型来拟人化,这样做是没有意义的,因为这些模型是没有知觉的。”“这些系统能够基于数以百万计的句子来模仿交流的方式,并且在任何有趣的话题上都能够扯出有意思的内容。如果你问它们做一支冰激淋恐龙是怎样的体验,它们可以生成大量关于融化咆哮之类的文字。”
(These systems imitate the types of exchanges found in millions of sentences, and can riff on any fantastical topic — if you ask what it’s like to be an ice cream dinosaur, they can generate text about melting and roaring and so on.)
类似的故事我们见过太多了,特别是前几年一个非常经典的电影《她》(Her) 里面,主角对于虚拟助手的身份界限越来越不清晰,把“她”当成了人。然而根据电影的描绘,这种错觉其实来自于当代人社交失败、情感破裂、孤独感等一系列自我和社会性的问题,跟聊天机器人到底是不是人这一技术性的问题,压根没有半毛钱关系。
电影《她》剧照 图片来源:华纳兄弟影业
当然,有这些问题并不是我们的错,想要把机器人当成人,也不是那个研究员的错。将各种情绪(比如思念)托付在物件上,是人类自古以来就具有的一种创造性的情感能力。将大规模语言模型当成人,对其倾注情感,虽然被各位 AI 大佬批评为一种心理误差,不也正是人之所以为人的体现吗?不过,至少在今天,谈啥都别跟机器人谈感情……喜欢这篇文章?
1)点击右下角的“在看”
2)分享到你的朋友圈和群里
3)赶快关注硅星人吧!