ChatGPT热潮下,图灵奖得主LeCun“泼冷水”降温?离实现像人一样的思考的通用人工智能大模型,我们还有多少路要走?
ChatGPT自推出以来,短短几个月便积累了过亿用户,迅速成为史上增长最快的消费级应用,并凭借一己之力让AI狂潮席卷全球。
ChatGPT凭借强大的功能,火爆出圈,成为人们眼中“无所不能”的AI助手,并一扫科技行业前段时间增速放缓、陷入大规模裁员危机的低迷阴霾,给科技和风投圈点燃了一把烈火:国内各科技大佬广发“英雄帖”招募人才,投入对新产品的试验,开启“豪赌;谷歌等顶级科技公司纷纷下场推出自己的生成式AI抢占市场……
ChatGPT的强势崛起更引发了一系列连锁效应:“AI换人”的论调愈加强烈,并对部分人的职业现状和发展轨迹产生了实质影响;如何合理正确地使用人工智能也成为人们关注和讨论的焦点……
热潮当头,压倒性赞誉声中的“异端”
在这一场科技热潮的狂欢里,Meta首席AI科学家、图灵奖得主Yann LeCun,却在ChatGPT风头正盛之时,毫不掩饰自己对于ChatGPT的怀疑与批判。在一场媒体和高管小型聚会上,他表示,「就底层技术而言,ChatGPT并不是多么了不得的创新。虽然在公众眼中,它是革命性的,但是我们知道,它就是一个组合得很好的产品,仅此而已。」
在ZDNet发表的一篇《Meta首席人工智能科学家说,ChatGPT“没有特别的创新”,也“没有革命性”》的报道中,首次披露了LeCun试图“纠正”公众对于ChatGPT的“盲目崇拜”的细节:
Lecun表示,ChatGPT并不像公众认为的那样,是一件革命性的产品。在过去的很长一段时间,已经有许多公司和研究机构已构建了数据驱动的人工智能系统,除了谷歌和Meta,还有一些初创企业也拥有了类似的技术。因此,「与其他实验室相比,OpenAI 并没有什么特别的进步。」
「ChatGPT使用的Transformer架构是以自监督的方式预训练的。」而自监督学习是Lecun所倡导的,其观点可以追溯到OpenAI出现之前,Transformer语言项目也可以追溯到几十年前。
Lecun表示,ChatGPT和其他LLM并不是凭空产生的,而是其他几十年内人们共同奉献的成果。因此,与其说ChatGPT是一个引领科技进步的“突破性成就”,不如说它是一个合格的工程案例。
Lecun的一系列言论,在网络上引起了热议,有人批评它太过直白傲慢;有人让他专注Meta产品的研发,不要“吃不到葡萄说葡萄酸”……
OpenAI的CEO Sam Altman也出来呼唤“和平”,扼制舆论的发酵。Lecun也澄清,自己并非挑刺,双方亦有合作往来。但不久后,Sam仍取关了Lecun。
理智回归,ChatGPT的附魅与祛魅
ChatGPT商业化的成功无可置喙,其成功离不开它让普通人也体会到了生成式AI的便利之处。
ChatGPT作为生成式AI的新成果,展现出了不同于以往聊天机器人的新功能,从理解和分析已有数据,走向了生成内容。人们可以利用ChatGPT生成图片、歌曲、小说、方案、代码……人们切实体会到了ChatGPT带来的好处,ChatGPT也成为了人们眼中“无所不能”的强大工具,和横空出世的“突破性科技成就”。
这就是ChatGPT的附魅。
热潮渐退,理智回归,ChatGPT的弊端渐显。
在这场关于人工智能的狂欢后,人们开始审视Lecun引发的舆论争议背后,所透露出的关于ChatGPT的薄弱之处。
诚然,ChatGPT不是第一个基于语言模型的聊天机器人,也不会是最后一个。目前ChatGPT基于的LLM即大语言模型,推动了自然语言处理的极大进步,并且已经逐步成为数百万用户所用产品的技术核心。但严格意义来说,ChatGPT的生成只是基于海量数据库基础上展开的信息生成,并非知识生成,与人类的智慧相比,ChatGPT目前只能实现初级的生成,并不能如人类一般实现创造性的成果产出。Lecun也正是因为这一点,才指出ChatGPT只是一个合格的工程。
LeCun认为LLM是被动的,不会主动规划,不会讲道理,也不会胡编乱造,不应该用来获得事实性建议,仅能用作写作的辅助工具,其存在的问题可以通过人工反馈缓解,但无法彻底解决,更好的系统终会出现。
ChatGPT强调回答的因果逻辑,但其生成的东西并未被验证,回答本身是否正确对于它本身来说并不重要,因此会出现一些“一本正经的胡说八道”。这一点是生成式AI难以规避的痛点,因为一旦数据库被“污染”,那么ChatGPT就会生成与事实不符的错误。也正因如此,将ChatGPT看做引领科技进步的“突破性成就”为时尚早,且言过其实。
就底层技术而言,基于Transformer、模型的ChatGPT与其他基于规则或机器学习的AI聊天机器人比起来,具有更高的语言理解能力和更丰富的语言表达能力,能够生成更自然、流畅的文本,且经过大量训练的它可以满足”上知天文,下知地理“。
其中,Transformer是谷歌的发明,这种语言神经网络,正是GPT-3等大型语言模型的基础。而第一个神经网络语言模型,Yoshua Bengio早在20年前就提出了。Bengio的注意力机制后来被谷歌用于Transformer,之后成为了所有语言模型中的关键元素。另外,ChatGPT用的人类反馈强化学习(RLHF)技术,也是由谷歌DeepMind实验室开创的。
所以在LeCun这位深度学习三巨头之一眼中,ChatGPT只是一项成功的工程案例,也情有可原。毕竟去年11月中旬,Meta的FAIR实验室也曾提出一个Galactica模型,它可以生成论文、百科词条、回答问题、完成化学公式和蛋白质序列的多模态任务等等。LeCun发推对此盛赞,虽然因为错误,短短上线三天就被迫下架,但也可以说明ChatGPT并非技术首创。
ChatGPT的技术的确不是最创新的,却是如今最成功且目前无人并肩和超越的,其精准独特的定位策略,出色的产品运营,亦是过人之处。
下一代真正的通用性人工智能在哪?
LeCun认为ChatGPT无法实现通用人工智能,但ALM技术路线可以。
ALM即增强语言模型,兼顾当前ChatGPT 强于意图理解、强于文本生成优点的同时,也解决了它最大的产品落地痛点——事实性错误通过外部信息进行补全,具有真实性、减少不确定性、可解释性和增强能力的特点。毕竟纵使训练数据已经到达海量级别,相对于几乎是无限的应用场景来说,我们还是需要模型能够随时补充请求相关的外部数据,或是能够自动调用一些已有的可靠接口进行推理服务。
LeCun曾经表示过,让机器像人或动物一样行动是他一生的追求。
当今人们对AI发展的看法也分为两类,一些人认为AI仅作为工具,需要更标准化、精细化、智能化代表更先进的生产力,而一些人却认为AI可以在一些产品中表现得像人一样,意图理解和内容生成能力是重点。这其实涉及很多人工智能伦理问题。
LeCun等人撰文对当前玩法百变的ChatGPT离真正的人还差多远这一问题进行了深入探讨。文中阐述,聊天机器人非常聪明,在教育界引起的恐慌足以说明它们书本知识的学习能力,无所不谈更展现了它们经大量训练后对这个世界的了解,他们松散地遵守人类规范却不受约束,毫不在乎。
它们没有想要对话实现的目标,不受他人反应的激励,可以当一个稳定的辅助工具,却无法成为一个值得信赖的大多数时候会希望与之交谈的人。或许这也是为何 LeCun直言ChatGPT这样的大型语言模型是滔滔不绝胡说八道,对现实把握非常肤浅,远谈不上是AI新时代的开创者。
不过值得一提的是,Meta前几周也发布了自家的大型语言模型LLaMA,在很多测试中表现出色,被认为似乎是目前最先进的模型之一,且足够小不需要多少资源就能运行。
Rob Toews曾发表一篇关于「下一代语言模型」的文章,并得到Lecun盛赞。Rob Toews在文中针对当下语言模型存在的问题指出的三个发展方向可以说和LeCun心中对理想人工智能的构想有相似性。
让AI像人一样「思考」,通过bootstrapping的方式来提升模型的智能程度。当前模型完成信息积累训练,利用这些从不同的来源中吸收的知识来生成新的书面内容,然后利用这些内容作为额外的训练数据来提升自己、自我改进。
还要它可以自己去查验事实,但是否有必要对人工智能方法论进行更根本的范式转变,以使人工智能具有常识性和真正的理解,是个悬而未决的问题。
以及大规模稀疏专家模型,当下大型语言模型参数都是稠密的,稀疏专家模型的理念是,一个模型只能调用其参数中最相关的子集来响应给定的查询。其定义特征为,它们不激活给定输入的所有参数,而只激活那些对处理输入有帮助的参数。因此,模型稀疏性使模型的总参数计数与其计算需求解耦。
它们在实际应用中比稠密模型更容易解释,但构建起来技术更复杂,至今没有得到广泛应用,不过未来或许会更加普遍。
往期精彩