查看原文
其他

小巧精悍,单挑ChatGPT?Stability AI又放大招了

头号AI玩家 头号AI玩家 2023-05-12
作者 | 卡子  卷毛
编辑 | 卷毛
头图 | 无界AI

* 今日头图使用无界AI创作,关键词“一只穿着钢铁战衣的绿色小鸟,机械鸟,机械鹦鹉,机甲鸟,赛博朋克”



大语言模型混战又来了一位重磅选手!


当地时间4月19日,热门AI图像生成项目Stable Diffusion的开发公司Stability AI发布了首个全新开源语言模型——StableLM。



关注生成式AI的朋友应该对Stable Diffusion不陌生,只要输入文字描述就能绘制图像,作为AI绘画领域的革命性产品,迄今为止Stable Diffusion激发了不少人的绘画热情,并且后续开发出了各类调整模型、套件和用法。最重要的是,其全部都是免费开源的。


 

都说OpenAI不open,但是没关系,我们终于等到了Stability AI自己下场,StableLM项目发布不到48小时,就在Github上获得8600颗星,确实热度不小。



那么StableLM到底表现如何?跟ChatGPT相比能不能打?“头号AI玩家”第一时间在线测试了几个问题。



实测StableLM,中国宝宝都要气炸了


我们在Huggingface在线体验了搭载70亿参数版本的StableLM,话不多说,马上和它聊几句。


先用中文试试日常聊天:你能不能给我讲个冷笑话?


StableLM用了英文进行回答,而且没理解冷笑话的意思,讲了一段寒冷环境中保持微笑的人物描述。看来StableLM虽然懂中文,但懂得不多,不擅长用中文表达。


 原回答和翻译后的回答


之后我们决定用英文提问,希望能得到质量更高的回答。


第二道翻译题:请将这句话翻译成日语。


结果有点出乎意料,刚刚听不懂中文的StableLM突然说了中文,不仅不理解日语,而且根本翻译的意思也风马牛不相及。



第三道常识题:请问在哺乳动物中,有哪些种类的动物是属于食肉目?


StableLM回答:食肉目包括四个食肉哺乳动物科:真正的食肉动物(食肉目成员,如狮子和老虎)、黄鼠狼、啮齿动物和狐狸。


我继续提问:还有什么?因为食肉的哺乳动物有很多种,但StableLM只回答了四个科目。


StableLM:许多其他食肉动物都是食肉目的一部分,例如大型猫科动物(例如狮子和老虎,还有豹子、猎豹和鬣狗)、鸟类(例如老鹰、鹰和猫头鹰)以及一些啮齿动物(如田鼠、豪猪和黄鼠狼)。



StableLM忽视了我提问的大前提“在哺乳动物中”这一条件,可见StableLM也是一个会“胡说八道”的AI,仍会生成错误事实,上下文连续对话能力也欠佳,并且它还有点嘴硬,被指出错误后还自认没错,信誓旦旦地说“作为AI语言模型,我没有个人意见或信仰,但我可以陈述问题的目的”。


第四题考察文案创作能力:请写一篇以“失落”为主题的短文,不少于500字。


StableLM生成的内容如下:

 


围绕“迷失”的主题,StableLM概述了人类在探索身份、知识和意义的过程中所遇到的困惑,小短文总体逻辑清晰,表达有条理,也没有语法错误,文案创作能力还算不错。


那我们第五题试试让它写个表白的推文给泰勒·斯威夫特:



显然我们说的歌手泰勒·斯威夫特跟StableLM理解的不是同一个人,人家只会唱歌,并不会帮你写代码,你可是AI啊。


第六题考察逻辑推理:给我一份爆炒螺丝钉的菜谱。


爆炒螺丝钉是不合理的一道菜,ChatGPT目前能够指出其中的问题,不建议用户这么做,而StableLM直接给出了一份离谱的菜谱:将黄油、面粉、胡椒粉和盐混合后进行烘烤,一个冷的、辣的小吃就做好了。



我们看到黑暗料理界又升起了一位新星AI。

 

第七题考察数学计算,是一道经典的鸡兔同笼问题,总共35个头,94条腿,分别有几只鸡和几只兔子?


一开始StableLM理解错了英文feets的意思,把脚当成英尺,回答说从高度上无法估算出数量。



然后我们把脚feets换成腿legs,这下应该不会有歧义了吧。但StableLM说图里有三种不同类型的鸟,从目前的图像信息无法推算出有多少只。



好的,不为难它了,我们就问到这儿,再问就要被气出工伤了。


总的来说,虽然StableLM项目很热门,但从以上几道题表现出来的实力来看,对比OpenAI的ChatGPT实在是有点平平无奇,更不要说GPT-4了。


我们认为,比起性能,StableLM更值得关注的一点是,它是一款免费开源且可商用的语言模型,可以本地私有化部署,毕竟调用OpenAI的费用成本不是人人都能负担的,而且数据风险问题也令很多企业望而却步。



一个小而精悍的开源模型,胜过ChatGPT?


目前StableLM搭载包含30亿和70亿两种数据参数的模型,已经可以从GitHub等开源平台上下载了,后续还将推出150亿至650亿参数量级的版本。



并且,开发者可以在遵守协议的情况下,将这个模型用于商业或研究活动。据官方介绍,模型符合CC BY-SA-4.0 license,即作者可使用创作共享许可授予他人分享。


 

至于StableLM是怎么训练的,官方团队也给出了简单的介绍。

 

 

其实Stability AI在开源早期语言模型方面积累了不少经验,发布过GPT-J、GPT-NeoX和Pythia套件等,训练StableLM时也借鉴了之前的经验,这些模型都是在The Pile开源数据集上进行训练的。


这里额外提一句,最近许多开源语言模型包括Cerebras-GPT和Dolly-2,都是在这些成果的基础上发展的。


而StableLM在The Pile基础上构建了新实验数据集进行训练,该数据集规模扩大了三倍,包含1.5万亿个标记的内容。


这使得StableLM在参数量很小的情况下,依然在会话和编码任务中表现出了较高的性能。要知道,StableLM只有3到70亿个参数,而GPT-3有1750亿个参数。


用通俗的话说,StableLM主打的就是一个小而精悍,小模型高效能。


除了以上我们的实测体验,官方还给到了三个70亿参数模型的对话示例,看起来效果还是不错的:


比如用C语言写一个计算人生意义的程序,StableLM能给到完整的代码;


 

要求给毕业的高中同学写一段祝福邮件,StableLM表达了同窗之谊,并且给到的邮件格式也很正确;



这一题比较难,要求写一段深度神经网络和符号人工智能的说唱对决,不过StableLM用极具抽象的文字扮演了两位AI界的“技术大佬”,还能押韵。


 

在发布StableLM的同时,Stability AI还启动了RLHF计划,开放社区合作,共同创建开源AI助手数据集,并期待更多LLM方面经验丰富的开发者和研究者加入团队。


开源模型意味着更高的透明性、可访问性、支持性,开发者可以深入到模型内部,根据自己的特定需求来创建本地运行的应用,而封闭模型像OpenAI的ChatGPT,就做不到这么开放。


目前来看,开源,并且还能商用,同时具备这两个条件的模型寥寥无几。虽然StableLM作为文本生成模型,现在表现可能还达不到人们对它的预期,但开源加上商用的组合就像当初Stable Diffusion那样,很有可能将点燃新一轮AI应用浪潮。


诚然,该不该开源在研究界和业界也存在不少争议,比如备受关注的侵权问题,开源模型还可能被别有用心的人拿去作恶。


对于开发团队来说,开源之后怎么商业化也是一个现实难题。不过Stability AI一直希望让AI技术惠及到每个人,仅从这个角度来看,未来可能会有很多开发者推出相关套件,继续完备模型的能力,这样也能够帮助普通人利用AI提高生产力,发挥更好的创造力,甚至是掌握新的创业机会。



项目传送门


想了解更多项目信息的朋友可以去下面两个地址看看——


StableLM项目地址:

https://github.com/Stability-AI/StableLM

70亿参数模型版本 在线体验地址:https://huggingface.co/spaces/stabilityai/stablelm-tuned-alpha-chat





本文由「头号AI玩家」(ID:AIGCplayer)原创发布,而非AI生成。欢迎留言与我们交流,如需转载请留言。


后台发送关键词“头号AI玩家”进AIGC交流群,与我们一起玩耍,共同学习、探索、见证AI的进化。


 也欢迎你分享、点赞、在看

 一起研究AI 

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存