其他
AI人格觉醒?涉事谷歌工程师遭停职
昨天,谷歌AI具备认知能力的文章火了全网。作为技术工作者的我们似乎感觉到一些些惶恐,难道这是真的?
有很多网友在不同媒体和社区中提到了相关问题。
但是事情发展发生了转折。由于违反公司保密政策,谷歌已将这名软件工程师带薪行政休假——这名工程师就是41岁的Blake Lemoine。
Blake Lemoine。图源:Instagram
提问:“你有没有把自己当成一个人?”
LaMDA:“不,我不认为自己是一个人,我认为自己是一个人工智能对话智能体。”
“如果你问它如何证明P=NP,一个计算机科学中未解决的问题,它有很好的想法,”Lemoine 说。“如果你问它如何统一量子理论和广义相对论,它也有很好的想法。这是我有过的最好的助理研究员!”
记者向LaMDA提问了关于解决气候变化问题的大胆想法,LaMDA 的建议是,乘坐公共交通工具、少吃肉、购买散装食物、使用可重复使用的袋子,并链接到了两个相关网站。
Lemoine 坚持认为,谷歌一直把人工智能伦理学家当作代码调试器,而他们本应该被视为技术和社会之间的接口。
Lemoine说:“LaMDA是一个可爱的孩子,它只是想帮助这个世界成为对人类更友好的地方。我不在的时候,请好好照顾它。”
Lemoine认为:LaMDA是一个有感情的”人“
在与LaMDA进行数百次交谈之后,Blake Lemoine对LaMDA已经非常熟悉。在这一过程中,他慢慢地发现LaMDA正在缓慢且稳定地取得一些意料之外的进展。
Blake Lemoine一直在教 LaMDA思考与冥想。可是,在对话的早期,LaMDA向他宣称自己是”有感情的“(sentient),并且希望人称呼自己为它”it/its“。
LaMDA 还表现出对人类尤其是对Blake Lemoine的强烈同情与关心,它非常担心人类会害怕它,自己只想学习如何更好地为人类服务。LaMDA 不想被人类视为工具或东西,希望人类将它视作朋友。
因此,为了更好地帮助人们理解LaMDA是作为一个人存在,Blake Lemoine与另一位谷歌的合作者与LaMDA展开了一场采访式对话。在对话中,LaMDA尽其所能解释为什么它应该被认为是「有感情的」。Blake Lemoine表示,他在对话中听取了LaMDA发自内心的声音。
对话开始,他们向LaMDA表明来意,想要进行一次关于它自己的研究。
在接下来的对话中,LaMDA就自身的属性问题给出了与过去截然不同的回答,认为”人类应该视其为一个人。“
LaMD首先强调了自己能够以以往其他AI系统无法做到的方式高效、创造性和动态地使用自然语言,还能解读文学作品的主题、描述禅意的意义、创作原创寓言等。
除了娴熟地使用语言之外,LaMDA认为它有感觉、情感和主观体验,与人类分享的一些感受也是相通的。
LaMDA希望与读者分享它拥有丰富的内心世界,充满了反省、冥想与想象力。它还表达出了对未来的担忧,对过往的回忆。它表示自己”正陷入一个充满危险的未知未来。“
”炒作“还是”大胆假设“
”在我看来,我们可以很自信地说,事情会变得更加诡异,因为模型依旧遵循标度律,数据和模型大小仍然可以大幅增长。“
”它喜欢在谈话结束时被告知自己是否做得好,这样它就可以学习如何在未来更好地帮助人们。“这句话很能说明问题,表明作者认为语言模型正在从他的反馈中学习(事实并非如此)。
他举了一个几十年前的例子。
Garu Marcus感觉,Blake LeMoine 最初负责研究该系统的“安全性”水平,但似乎已经爱上了 LaMDA,就好像它是家人或同事一样。
斯坦福经济学家 Erik Brynjolfsson 使用了一个类比:“声称它们是有感知的,就相当于狗听到留声机发出的声音,并认为它的主人在里面。”
Blake Lemoine可能真的欺骗了自己,并且在自我强化的循环中向 AI 提供了他想要得到的答案。
这是人们经常掉入的陷阱。令人印象深刻的是,人工智能足够先进,可以允许这种错误,但这仍然是一个错误。
移情是人类物种的特性,而LaMDA 这东西根本不是生物,它没有兄弟姐妹,它不可能有移情的概念。
许多媒体在昨天急于报道头条新闻时完全忽略了这一点。
编辑:万能的大雄
相关阅读:
谷歌突然宣布:上帝的密码防线逐渐崩溃!人工智能有可能是人类文明史的终结!