查看原文
其他

辟谣!微软撤回声称ChatGPT为20B参数的论文,并给出解释。

刘聪NLP NLP工作站 2024-04-07

写在前面

大家好,我是刘聪NLP。

前两天出现了个大新闻,就是微软爆出ChatGPT的gpt-3.5-turbo接口参数仅有20B。

如何看待微软论文声称ChatGPT是20B(200亿)参数量的模型?

当时AI圈算是炸了锅,当时我也是一顿分析,但是现在应该是辟谣了。(幸好当时叠了甲,所有表述的前面都加了“如果真的只有20B”)

为啥说辟谣了呢?因为微软的那篇文章撤了两次搞,并且都给了说明。说明表示作者们并未证实ChatGPT的参数,ChatGPT的参数假设仅来自一篇blog,给公众带来了误导,因此重新修订paper。

那篇blog:https://www.forbes.com/sites/forbestechcouncil/2023/02/17/is-bigger-better-why-the-chatgpt-vs-gpt-3-vs-gpt-4-battle-is-just-a-family-chat/?sh=5646bee5b658

10月30号撤稿v2版本时,表明“There are some errors in the paper and we need to retract it”

11月1号v3版本说明“Contains inappropriately sourced conjecture of OpenAI's ChatGPT parameter count from this http URL, a citation which was omitted. The authors do not have direct knowledge or verification of this information, and relied solely on this article, which may lead to public confusion”

那篇Blog表述内容。

只能说虚惊一场?借口+1。

但不清楚时迫于openai的压力,找了个理由,还是真的不知道。毕竟openai太close了。。。。

也许在不久的OpenAI开发者大会上,OpenAI会自己说清楚自己的参数量?

最后

欢迎多多关注公众号「NLP工作站」,欢迎加入交流群,有问题的朋友也欢迎加我微信「logCong」私聊,交个朋友吧,一起学习,一起进步。我们的口号是“生命不止,学习不停”。

PS:新书已出《ChatGPT原理与实战》,欢迎购买。

往期推荐:

继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存