大模型狂飙
ChatGPT是基于GPT-3.5(Generative Pre-trained Transformer 3.5)自然语言(NLP)大模型开发而成。相比于上一代,GPT-4已经迭代为一个多模态大模型(Multimodal Model),不仅将文字输入限制提升至2.5万字,还可以支持图像输入,并且回答的准确性更高,也能生成歌词和创意文本。
大模型崛起
看似旗鼓相当的起点,却通向了不同路径。在2020年,更聚焦的OpenAI从GPT-3开始抢跑,率先进化为大型生成式预训练语言模型(LLM)的顶级玩家,并在2022年以ChatGPT一战封神,GPT-4又在2023年点燃大众。
华为语音语义首席科学家刘群《ChatGPT技术分析》报告
他认为,ChatGPT这款产品恰到好处,解决了“既不太大、又不太小”的问题,并不迁就于普通的商用场景,不急于解决具体的商用问题,但很明显它也不想只解决冰箱、微波炉式的问题,又有壮志雄心。“历史上所有的自然语言厂商,目前都没有做过如此庞大的自然语言应用。GPT是有多个发展语言方向,但是封装出了ChatGPT这个老少咸宜、妇孺皆可的自然语言用户体验的场景。”
ChatGPT棋高一着
为何GPT能够抢先一步?汪军告诉记者:“Open AI比较早就专注于大模型训练,从GPT开始就发展得比较全面,其中一项技术是上下文学习(In-context Learning),GPT做的比较领先。”
这意味着,大模型的学习方法更加接近人类,比如我们要理解互联网新词或者微信表情包的含义,通常会把它出现的上下文场景学一遍,比直接给概念更好理解。现在,大模型的训练,也可以通过学习上下文场景的方式来习得“相似的逻辑模式”,进行任务的演算。
GPT-4进化 OpenAI造梦
而AI大模型已经能使用多种类型的数据训练,王煜全举例道,OpenAI的AI绘画软件Dall-E就是基于GPT-3,用图片数据训练出来,一张图片最长会被转化为1024个Token。在他看来,GPT-4再前进了一步,这次体现出对图片信息更强的理解能力,提供了图片数据处理的新方案,这背后潜在的价值难以估量。
往期推荐
国产ChatGPT亮相 李彦宏的勇气何来?
别只盯着ChatGPT了,这波AI浪潮远不止于此
拼多多来了!本地生活红海再燃战火