查看原文
其他

10个亿,70天,李彦宏等待独角兽

洞见数据研究院 表外表里 2023-06-24

文 | 周霄 赫晋一

编辑 | 付晓玲 曹宾玲

数据支持 | 洞见数据研究院




出道仅半年的AI时代,迎来了应用端的“IPhone时刻”。


近期的公开演讲中,李彦宏为大语言模型站台道,“AI时代,新的应用会基于大模型来开发,就像十几年前各种基于安卓、iOS的应用大量涌现一样。”


无独有偶,OpenAI创始人山姆·阿尔特曼在对未来进行预测时,也表示:AI大模型技术将成为继移动互联网之后,未来最大的技术平台;而以聊天机器人为界面,加上多模态模型的发展,将诞生大型企业。


一个两个都对大语言模型出圈之后,对下游应用端的颠覆坚信不已。


之所以如此躁动,在于大模型技术所代表的AI,预期可带来的生产效率提升,或许不亚于任何一次工业革命,堪称创业者的“富矿”。


基于此,各巨头都对这一轮应用周期浪潮严阵以待。以百度来说,其主张此次不能再‘单打独斗、跑马圈地’,而是要搭建生态,助力初创企业发展。


几天前开启的“文心杯”创业大赛,即是如此。据悉,此次创业大赛百度将为参赛团队开放文心大模型相关能力及百度智能云算力资源,且获奖团队有机会获得总值1000万、500万、200万元的资金与资源投资。


与此同时,百度还将设立规模10亿的文心投资基金,面向AIGC领域潜力股创企,提供涵盖资金、技术、业务资源在内的全面扶持。


而不止百度,某种意义上,“如何吸引并培养更多应用落地”正是这波大模型创业潮里,巨头们竞争的核心。



AI应用浪潮前夜,核心矛盾在于底层生态构建



事实上,百度这样的生态搭建早就开始了。


如2016年百度正式将飞桨开源,把人工智能技术分享给了广大开发者。截至2022年11月,基于飞桨创建的模型达到了67万个。


而之所以走这样生态布局的战略,在于该模式在大洋彼岸已经跑通。如李彦宏说道:“美国开发者正基于ChatGPT或其他大语言模型开发新应用。”

 

反馈在结果上可以看到,目前海外的新晋AI独角兽们,很多都搭乘巨头已有的大模型:


·生成《太空歌剧院》绘画作品的Midjourney,参考CLIP及Diffusion开源模型构建而成。

·文生文自动编写工具jasper,调用了GPT-3大模型。

·估值达11.6亿美元的代码托管平台Replit,构建在GPT-4大模型之上。


并且与大部分人熟悉的小程序生态不同,架构在巨头大模型上的生态,更像是新一代模式的App store。


简单理解就是,AI生态下,大模型是“基础设施”,各类初创企业架构在大模型生态上,向外产出各类垂直应用。


而通过搭建这种“基础设施”AI生态,巨头一方面可以凭借众多开发者的产出,将业务触角深入到各个领域;另一方面,也可以通过应用端来反哺优化自身技术。


不过,这些都只是一部分原因,更重要的初衷在于AI应用落地,面对的是更碎片化的场景、更复杂的大模型调试。此时,比起单枪匹马上阵,巨头和初创的生态协作效率实际更高。


百度的自动驾驶系统Apollo,一定程度已经验证了这一点。2020年Apollo生态大会上,百度推出Apollo X计划,扶植细分赛道独角兽,截止到2022年年底,Apollo已经拥有全球生态合作伙伴超过210家。


这一次也是类似的考虑。而具体逻辑,以智能客服为例,据悉百度智能云升级了智能客服的应答辅助、会话小结、智能工单、客服知识库等功能后,知识生产效率提升9倍,多轮对话构建成本下降65%,可让终端用户获得到更聪明、更拟人的客服体验。


但要实现这一点,需要AI学习上万条模拟数据,并根据不同场景反复调试,才能教会AI如何辨别不同的语境、上下文语义,真正结合AI落地。

 

这对维护着上百个大模型的巨头来说,要想在每一个垂直场景下都达到类似的进度标准,就必须切入每一个从数据到大模型、应用的完整流程,且随着数据更新,大模型也要更新,这种投入无疑是巨大的。


比如,亚马逊在最近的电话会议里提到:过去25年多的时间里对机器学习进行了相当大的投资,才使得机器学习可以服务几乎根植于亚马逊的所有产品和服务。


而AI独角兽,可以专注某个细分赛道,针对性深挖下去。但若其从头开始自己搭建大模型,势必面临巨大的成本压力。


比如,很多创业者表示:大模型创企光1年租1000张GPU卡就要花大几千万到1亿元的支出。


不仅如此,从目前AI原生应用端落地进度看,相比上一轮“Iphone时刻”,这一次的创业窗口期缩短了很多——美国研究机构CB Insights的数据显示,目前有13家生成式AI企业成为独角兽,从创业到成为独角兽所花费的时间平均为3.6年,比整体平均时间7年缩减一半。


如此一来,从头开始建立大模型,意味着会拉长创业周期,错过最佳竞争位。


这样的背景下,依托巨头生态无疑是最佳模式:初创公司轻装上阵,有更多精力用于达成“海量数据和精准算法间”轮动,和时间赛跑。


毕竟就如李彦宏曾说过的:“创业公司最好做一些新东西,做一些别人不太看好的东西,成功率会更高一点,社会意义、商业价值都会更大。”


OpenAI 创始人山姆·阿尔特曼的态度更直接,在今年初的采访中,其说到:“我对所有试图培训自己大模型的创业公司持怀疑态度。”


不过,这一逻辑推演到国内似乎出现了偏差。


可以看到,和海外的AI独角兽有接近五成是垂直应用领域相比,国内AI相关独角兽清一色都是底层技术研发商。


换言之,国内在AI应用落地这块,迟迟未深入垂直细分场景。

 

这背后的原因,业内权威的说法是,“我们的生态还没有建好,如果我们有一个统一的大模型平台和基座,下面对接一下国产的算力,做好一份接口,大家都可以来用,能够去促进一个生态链的建设。”


这一定程度进一步解释了,为何百度不断升级生态搭建。


如李彦宏认为:“未来中国会有自己的生态系统,拥有自己的大语言模型和基础模型。中国会出现至少一个、也可能是两个或三个基础大模型,可以支持人们开发各种AI原生应用。”


而可以看到,上述开源核心框架、10亿基金扶持初创公司外,百度还跳出行业内同质化低价竞争,通过“云+技术+产业”的生态系统,降低整体解决方案的成本,进行“让利”。


如百度2022Q4电话会议提到:我们的Al Cloud产品较为独特,有包含芯片、框架、模型、应用在内的四层架构,4个层都可以无缝协作提供端到端的解决方案,成本更低。


总的来看,这轮AI技术革新引领的新应用周期里,巨头与初创公司生态协同是大趋势。由此,如何进一步吸引并培养更多应用落地,将是科技巨头的新战争。



全栈自研的AI体系,以生态之力赋能应用诞生



服务这一轮应用周期,百度是最坚决的公司之一。


李彦宏在宣布启动“文心杯”创业大赛时表示:“我非常看好中国AI应用的发展前景,在咱们中国大家都非常愿意拥抱新兴技术。过去我们没有发明Android、iOS或Windows系统,但我们开发了许多非常创新的应用,比如微信、抖音和滴滴等。在人工智能时代也是同样的情况,科技带来很多可能,我们可以充分利用这些可能,开发应用。”


之所以如此自信,依仗是全栈自研的AI生态。


可以看到,百度是全球为数不多进行全栈自研布局的人工智能公司,从高端芯片昆仑芯,到飞桨深度学习框架,再到文心预训练大模型,搜索、自动驾驶等AI产品,都有相对领先的自研技术。

 

这样全栈自研的优势在于,可以在技术栈的四层架构中实现端到端优化,大幅提升效率。尤其是框架层和模型层之间,有很强的协同作用,能帮助构建更高效的大模型,并显著降低成本。


直观的体现是文心一言的迭代速度:内测一个月内,就完成了4次技术升级,推理成本下降到原来的十分之一或者说性能提升近10倍。


事实上,生态公司与创业企业的互相成就,已经在以往的技术周期里,验证过无数次。


当年安卓能超越苹果、塞班,便是开源之后,为手机制造商和应用商提供了完备的生态。

 

最近的OpenAI也类似,通过向外输出AI能力,让全球数以万计的开发者乘上AI东风。


而这些应用的大规模使用,又会反哺大模型训练的技术优化。如OpenAI 山姆•阿尔特曼在访谈中提到,“初创公司所做的1%训练,对于大语言模型技术的实际应用来说至关重要。”

 

对于国内亟待落地的AI而言,路径是相似的:框架的开发者越多,积累数据、迭代优化的大模型越丰富,越能满足用户。而用户的增长会继续提升整体生态能力。

 

当然,道理是这么个道理,但想要撬动,却不容易。


正如李彦宏所说:“大模型是Game Changer,它会彻底改变云计算的游戏规则。过去,云计算主要卖算力,看速度、看存储,今天,客户购买云服务,是要看框架好不好、模型好不好。”


百度集团副总裁侯震宇进一步解释,大模型能否推广开来有两个重要因素:其一是模型效果,其二是成本。


这极其考验云计算公司的基本功,尤其是框架和模型。业内也有这样的共识:基础设施决定了大模型的能力下限,也决定了应用上限。


框架方面,百度是领跑者。IDC报告显示,百度已经跑到中国深度学习平台市场综合份额第一的位置。

 

之所以优势不断扩大,就在于百度切中了用户的需求。举例而言,开发者接入飞桨后,无需从第一行算法代码写起,可以直接调用飞桨提供的相关模块,降低了人工智能技术开发与应用的门槛。


据报道,有12岁的初中生,通过使用飞桨中零门槛的easy DL,开发出了一款口罩佩戴检测程序,实现了三千多次调用。


在此基础上,百度还推出了创意社区鼓励开发者们交流,帮助开发者熟悉飞桨上的API(相当于工具箱),解决资料匮乏、应用案例稀缺的问题。


这就不难理解,为何飞桨能获得开发者的青睐。数据显示,截至2022年11月,飞桨已向社会开放了数百项AI能力,超过500万开发者参与,已服务20万企事业单位,基于飞桨创建了67万个模型。


而在飞桨的基础上,百度还推出了自家的文心大模型,百度生态中的智能云产品首先受益。目前,百度正在释放大模型能力到企业端。


可以看到,百度针对不同的客户,提供了差异化的模型方案。


不断的实战积累下,根据IDC评估,百度文心大模型产品、生态、应用能力处于国内领先水平。



这也意味着,随着客户增加、落地场景丰富,百度累积的能力,都可以赋能未来的创业者,将其从潜力股,培养为行业的独角兽。

可以看到,文心一言和文心千帆获得越来越多的客户:目前文心一言生态圈已加入 650家企业,落地场景涵盖各行各业,汉得信息、金蝶、软通动力等28家公司宣布与百度智能云牵手,更有约15万家企业在排队测试或加入文心生态。


正如李彦宏所说:“美国开发者正基于ChatGPT或其他大语言模型开发新应用。在中国,更多开发者将会基于文心大模型来开发AI应用。”





AI正在改变世界,且变化速度,超乎人们的想象。


在汹涌浪潮中,新的生产关系和生产力被快速构建,如同当时移动化时代袭来,新应用涌现一样,如今在人工智能落地前夜一批AI独角兽企业正在涌来

然而在风云变幻的应用周期里,创业者和独角兽们,往往需要拥有强大框架和大模型的“巨人”保驾护航,这又催生了大厂们的开放风潮。


目前来看,开放先行者百度,基于全栈布局的领先优势,平台生态更繁荣。而此次大手笔砸下10亿基金,以“文心杯”创业大赛广下英雄帖,更彰显了百度进一步开放、与创业公司齐头并进的决心。






您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存