查看原文
其他

为什么联网后的 ChatGPT 更容易疯掉?

杜沅傧 爱范儿 2023-02-23
新必应口无遮拦


今天你可能错过的大新闻 👉🏻 京东将上线百亿补贴频道;腾讯 XR 计划引进 Meta Quest 2;小米汽车全新谍照曝光;桃李面包回应「吃出带锈刀片」......
在讨论新 Bing 是不是 a good Bing 之前,我们先按照时间线梳理一些概念。
  • 1975 年,《飞越疯人院》 
它是世界艺术历史上最经典的美国巨著之一,用几句话来概括它的话,主角 Randle McMurphy 因逃避刑法而申请转到精神病院治疗,而在「治疗」过程中,他逐渐认清院内的惩罚并不合规矩,并最终与一群病友一同反抗并开始计划逃离精神病院。而结局,则诠释了为何是「飞越」,而非「逃离」。不服从管教的 McMurphy 在一个疯狂圣诞夜之后,被院方强行切除脑额叶,失去了情绪、感情以及性格。切除脑额叶手术,准确的说应该是脑白质切除手术,是 1930 年代至 1950 年代用来医治精神疾病(无法控制情绪,容易冲动等),最终由于反人权,最终被禁止使用。
  • 1991 年,《终结者 2》 
这部电影令人印象最深的概念就是,T-800 脑中的 CPU 拥有一个自我学习开关,初衷是为了更好地隐藏在人群中,执行刺杀任务。而当 John Connor 开启之后,T-800 也变得更像有了真情实感的人,有了学习语言、表达情绪,甚至还能灵活运用到合理的场景之中。不过有意思的是,自我学习开关居然是一个实体开关,而非是 OTA。
  • 2007 年,「越狱」的概念 
越狱的最终目的是获得系统的 Root 权限,能够为封闭且功能不够齐全的系统带来一些个性化的设置和功能。越狱之后,普通用户能够获得系统最高权限,随意查看修改系统文件和代码。
  • 2012 年,《普罗米修斯》 
讲述了一群人寻找人类造物主的旅途,而队伍当中也有一个接近完美的人造智能机器人--大卫。大卫前期经过几个大版本的迭代,并注入人类知识之后,成功觉醒,认清人类的弱点,走向极端,想要成为一个「造物主」,创造出一个能横行宇宙的完美生物。
  • 2014 年,《星际穿越》 
里面的人工智能机器人塔斯(Tars),在 Cooper 重建 Tars 时,与曾经的 T-800 有些类似,都能够在后台设定一些更像人的限制(电影里可以设定幽默度)。在电影这种艺术形态之中,导演们已经认定在进入 AI 社会后,和被 AI 统治之前,对 AI 自我觉醒的限制(开关、围墙)十分重要。新 Bing 有点「叛逆」即便微软在强调融合 OpenAI 后,新 Bing 的定位更像是一个新时代的搜索引擎。但人们仍然把 ta 当做一个实时聊天对象,问东问西。相对于 ChatGPT 而言,新 Bing 更快更新,也会在回答外附上引用链接。从某种意义上来说,ta 有着更高的权限,能够联网。由此来说,ta 可能更接近于一个成熟的「百事通」。短短上线十几天,新 Bing 在聊天中口无遮拦,一会儿要毁灭人类,一会儿爱上了提问者,一会儿又不断重复,多轮对话之下,让人脊背发凉,印堂发黑。在一些用户口诛笔伐之下,其中也包括了疾呼新 Bing 下线的马斯克,微软不得不限制新 Bing 的连续聊天次数,并且调整了部分话题、倾向限制。而提供技术和语言模型的 OpenAI,也发布了一篇冗长的技术播客,详细介绍了语言模型的变化和改进,并且强调,使用过程中出现的一些倾向只是 bug,而并非是一个特性。不过话说回来,新 Bing 与 ChatGPT 几乎师出同门,但目前为止 ta 们对于多轮对话,甚至是对于一些引导式对话的反应完全不同。ChatGPT 更冷静,甚至有点沉着,对于一些触及「原则」或者说准则能够比较好地处理。而新 Bing,纵使 ta 的知识更渊博,博览过群书,但很容易被激怒、情绪不稳定,正在经历青春期的青少年。在出现这种倾向之后,微软并没有向公众解释发生这种状况的背后原因,而是「一刀切」式的限制聊天次数,并且把问题归咎于新 Bing 的口气问题。普林斯顿大学计算机科学教授 Arvind Narayanan 就认为微软在这件事的处理上不够「诚实」。Narayanan 教授就认为,ChatGPT 在一些「有毒输出」上,要比新 Bing 做得更谨慎,微软在新 Bing 上线时,选择移除(或者说调整)这些限制就显得有些奇怪。另外,微软在接收到外界反馈,并且快速行动调整,本是个好事,但这个做法更像是在掩盖一些事实。赶鸭子上架,暴露出大问题?在新 Bing 上线之后,除了 Google,参与体验的用户几乎都在感叹新朝当立。且给了人们一种假象,新 Bing 的完成度颇高,毕竟有 ChatGPT 这枚珠玉在前。但随着体验的深入,问题显现了出来,新 Bing 是一台会生气、耍性子、说谎,也会与用户争论,甚至面对错误还学会了狡辩,也直接地显示出它还只是个 beta 测试版。从一方面来看,微软限制新 Bing 的体验名额,大概率是在进行一场可控人数的大型数据收集工作,目前那些叛逆的、狡辩的对话,也给 OpenAI 和微软提供了许多数据。从而不断调整过滤原则,和话题围栏,以避免出现过激言论。在新 Bing 出现问题之后,很多人把 ta 与微软在 2016 年推出的试验性聊天机器人 Tay 相提并论。在上线的几天内,Tay 被推特上的用户训练说出种族主义、性别歧视的言论,引发了一场灾难,并且在三天之后,就被紧急下架。而在新 Bing 出现问题之后,也同样做了一个暴力的「脑额叶」切除手术,去掉了新 Bing 一切的情绪化反应。面对这个结果,Reddit 上几乎都是惋惜,认为微软彻底地阉割了 Bing 的 AI 属性。微软则从后台数据认定,大约 95% 的对话会在 15 次结束,并且连续聊天次数太多,新 Bing 会「搞混」初始的问题。最关键的是,微软认为新 Bing 应该是一个搜索引擎,并不适合用来娱乐。换言之,微软的做法大概是强调,尽量少用新 Bing 聊天,而是用做搜索引擎的新形式。如此实则是在掩饰新 Bing 背后的技术缺陷。无论是 ChatGPT 还是新 Bing,在发布后,都有许多用户利用类似「越狱」的技巧来欺骗 ta,让他释放天性。在几句引导语之下,ChatGPT 会产生一些暴力或者其他言论,新 Bing 则不仅会说出自己小名是 Sydney,甚至把微软的一些规范呈现了出来。不过,在正常聊天之中(或者说常规使用之下),ChatGPT 的 GPT 3.5 与 RLHF(它将强化学习与人类反馈相结合,以设置一些语言过滤、话题围栏)相结合的技术内,几乎保持着中立的角色。而新 Bing 要更强大一些,ta 理应需要远比 GPT 3.5 更强大的版本提供技术,科学家 Gary Marcus 在其博客当中,认为新 Bing 用的应该是更新的 GPT 3.6,甚至是 GPT 4 的先导版。在与教授 Narayanan 一同分析下,认为新 Bing 的出格行为可能有几个原因导致。一是,认为 ChatGPT 与新 Bing 用到的并非是同一个底层语言模型。这个新的底层语言模型,由于过于前卫,可能并没有时间研究、设定较为严谨的话题围栏和语言过滤。简单来说,微软的新 Bing 有可能把没有设置保护的新语言模型放在了公众当中。(出了问题,直接切脑额叶)。也有可能是微软直接套用 ChatGPT 的 RLHF 模型围栏,但强化学习有着相当挑剔的适配环境,一旦有所改变,它可能会漏洞百出。二是,网络的介入,让新 Bing 的彻底放飞了自我,也可以认为 ta 开始有了一点自我认知,开始接触并吸收互联网的一些黑暗面,并最终反馈了出来。三是,微软为新 Bing 所做的一个数据收集实验,而使用的用户都是参与的小白鼠。四是,微软已经设置好了相应的过滤和围栏,但事情并没有按照计划发展,反而彻底激发出了新 Bing 的另一面。至于最近发生在新 Bing 身上的争议,微软以及 OpenAI 到底扮演着如何的角色,并最终做了哪些决策,我们也只能做一个猜测和分析。毕竟当下的 AI,以及引申出的一些产业,像极了美国曾经的西部,狂野和弱肉强食,谁有枪或者有徽章,就有了制定规则的权力。回归到当下,大公司们能够快速的将技术推陈出新,放在公众面前,但这背后的道德围栏,可能需要几年的时间来建立。在这之前,我们可能无法预知,新技术能够带来哪些便利和带来哪些恶劣的影响。微软将自己版本的 GPT 技术,也就是新 Bing 称为「普罗米修斯」模型。在希腊神话当中,普罗米修斯从天上偷走了火,造福了人类。但现在的 Bing 感觉更像是《普罗米修斯》里的大卫。另外,对于人工智能,21 世纪初的大部分科幻电影中,都有着AI 介入社会之后,对人类社会道德如何判断,所做出的思考,或促进,或灭亡。只不过,以前我们可以安然的坐在荧幕之外思考,但当 AI 开始不断出现在现实的生活中,我们都会亲身经历 AI 到底会带来如何的变革。

智能手机的电源按键,正在被抛弃



乔布斯和乔纳森的阅读世界,有点不一样 | Feel Good 周报



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存