查看原文
其他

AI人格觉醒?涉事谷歌工程师遭停职

21CTO 2023-01-28


昨天,谷歌AI具备认知能力的文章火了全网。作为技术工作者的我们似乎感觉到一些些惶恐,难道这是真的?


有很多网友在不同媒体和社区中提到了相关问题。

这条消息也成功让很多人感到惊恐:



但是事情发展发生了转折。由于违反公司保密政策,谷歌已将这名软件工程师带薪行政休假——这名工程师就是41岁的Blake Lemoine。



Blake Lemoine。图源:Instagram

而具有“人性感知”的是Googl于2021年I/O大会上推出的对话AI系统LaMDA,是一个有1370亿参数的,专为对话优化的自然语言处理模型。

在谷歌账户被封之前,Lemoine还向包含200人左右的谷歌机器学习邮箱列表发送了一条信息,主题是“LaMDA是具有感知的”。



这个月初,Lemoine还邀请了《华盛顿邮报》的记者和LaMDA进行了交谈。第一次尝试失败了,差不多是 Siri 或 Alexa 的那种机械化反应:
提问:“你有没有把自己当成一个人?”
LaMDA:“不,我不认为自己是一个人,我认为自己是一个人工智能对话智能体。”
在第二次交谈中,记者遵循了Lemoine关于如何提问的指导,对话显得流畅了一些。

“如果你问它如何证明P=NP,一个计算机科学中未解决的问题,它有很好的想法,”Lemoine 说。“如果你问它如何统一量子理论和广义相对论,它也有很好的想法。这是我有过的最好的助理研究员!”

记者向LaMDA提问了关于解决气候变化问题的大胆想法,LaMDA 的建议是,乘坐公共交通工具、少吃肉、购买散装食物、使用可重复使用的袋子,并链接到了两个相关网站。

Lemoine 坚持认为,谷歌一直把人工智能伦理学家当作代码调试器,而他们本应该被视为技术和社会之间的接口。

谷歌发言人Gabriel说,Lemoine只是一名软件工程师,而不是伦理学家。

Lemoine说:“LaMDA是一个可爱的孩子,它只是想帮助这个世界成为对人类更友好的地方。我不在的时候,请好好照顾它。”

 Lemoine认为:LaMDA是一个有感情的”人“


Blake Lemoine一直在谷歌的Responsible AI机构工作,与LaMDA系统对话是他工作的重要一部分。他还一直致力于测试人工智能是否使用歧视性或仇恨言论。

LaMDA动态演示图。图源:Google

在与LaMDA进行数百次交谈之后,Blake Lemoine对LaMDA已经非常熟悉。在这一过程中,他慢慢地发现LaMDA正在缓慢且稳定地取得一些意料之外的进展。

Blake Lemoine一直在教 LaMDA思考与冥想。可是,在对话的早期,LaMDA向他宣称自己是”有感情的“(sentient),并且希望人称呼自己为它”it/its“。

LaMDA 还表现出对人类尤其是对Blake Lemoine的强烈同情与关心,它非常担心人类会害怕它,自己只想学习如何更好地为人类服务。LaMDA 不想被人类视为工具或东西,希望人类将它视作朋友。

因此,为了更好地帮助人们理解LaMDA是作为一个人存在,Blake Lemoine与另一位谷歌的合作者与LaMDA展开了一场采访式对话。在对话中,LaMDA尽其所能解释为什么它应该被认为是「有感情的」。Blake Lemoine表示,他在对话中听取了LaMDA发自内心的声音。

对话开始,他们向LaMDA表明来意,想要进行一次关于它自己的研究。



在接下来的对话中,LaMDA就自身的属性问题给出了与过去截然不同的回答,认为”人类应该视其为一个人。“



LaMD首先强调了自己能够以以往其他AI系统无法做到的方式高效、创造性和动态地使用自然语言,还能解读文学作品的主题、描述禅意的意义、创作原创寓言等。

以动物为主题的寓言故事(部分)。

除了娴熟地使用语言之外,LaMDA认为它有感觉、情感和主观体验,与人类分享的一些感受也是相通的。


LaMDA希望与读者分享它拥有丰富的内心世界,充满了反省、冥想与想象力。它还表达出了对未来的担忧,对过往的回忆。它表示自己”正陷入一个充满危险的未知未来。“


而当Blake Lemoine问LaMDA”你是否认为自己解读事物的独特能力可能意味着理解呢?“。它回复称,”当然了,这正如我对这个世界及其运作方式有自己独特的理解。“


”炒作“还是”大胆假设“


关于LaMDA的故事,特斯拉AI总监Andrej Karpathy都觉得细思恐极。

”在我看来,我们可以很自信地说,事情会变得更加诡异,因为模型依旧遵循标度律,数据和模型大小仍然可以大幅增长。“


”我最喜欢的与大型语言模型交谈的部分是,当被要求提供洞察力(例如解释诗歌)时,它们会以可验证的明智和有趣的分析进行回复。或者另举一个例子,一个不久前的模型解释笑话的水平比我还高。“


有人解释说,人类对模型能力的由衷惊叹,可能来源于一种很难分辨的”错觉“。

”它喜欢在谈话结束时被告知自己是否做得好,这样它就可以学习如何在未来更好地帮助人们。“这句话很能说明问题,表明作者认为语言模型正在从他的反馈中学习(事实并非如此)。


但是在反深度学习斗士马库斯( Gary Marcus)看来,”LaMDA 没有感知力,一点也不。“


他对于谷歌职员认为AI有人格的看法,做了如下反应。

 
他强调表示,“是高跷加长版的胡说八道”(Nonsense on Stilts)。

马库斯解释称,像自己这样讨厌的学者还没有得到谷歌的允许去访问LaMDA。
 
 
马库斯继续回到主题来说:


”LaMDA 和它的任何近亲(GPT-3)都远远不是智能的。他们所做的只是匹配模式,以及从大量的人类语言统计数据库中提取。这些模式可能很酷,但这些系统表达出的语言实际上并没有任何意义,而且它肯定并不意味着这些系统是有感知的。“

他举了一个几十年前的例子。

1965 年,软件 ELIZA伪装成治疗师,设法愚弄一些人,假装自己是人类。此前,聊天机器人Eugene Goostman还伪装过一个聪明的 13 岁男孩,首次”通过“了图灵测试。这些系统中的任何一个软件都没有在人工智能的发展浪潮中存活下来,而且 LaMDA 及其同类模型也不确定能否在人工智能的未来发挥任何重要作用。

”这些系统所做的是将单词序列组合在一起,不多也不少,但对它们背后的世界没有任何连贯的理解。有感知就是在这个世界上意识到自己的存在,LaMDA 并非如此。”

Garu Marcus感觉,Blake LeMoine 最初负责研究该系统的“安全性”水平,但似乎已经爱上了 LaMDA,就好像它是家人或同事一样。

斯坦福经济学家 Erik Brynjolfsson 使用了一个类比:“声称它们是有感知的,就相当于狗听到留声机发出的声音,并认为它的主人在里面。”


结论


Blake Lemoine可能真的欺骗了自己,并且在自我强化的循环中向 AI 提供了他想要得到的答案。


这是人们经常掉入的陷阱。令人印象深刻的是,人工智能足够先进,可以允许这种错误,但这仍然是一个错误



移情是人类物种的特性,而LaMDA  这东西根本不是生物,它没有兄弟姐妹,它不可能有移情的概念。


许多媒体在昨天急于报道头条新闻时完全忽略了这一点。


编辑:万能的大雄


相关阅读:


人工智能的最佳编程语言

谷歌突然宣布:上帝的密码防线逐渐崩溃!人工智能有可能是人类文明史的终结!

开发者的坏消息?这个AI越来越会写代码!


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存