百度、腾讯、智谱AI都投了! 这家大模型初创公司什么来头?
训练大模型太费算力,于是大模型公司纷纷下场投资芯片公司。
来源 | 数据观综合(转载请注明来源)
近日从天眼查APP获悉,上海无问芯穹智能科技有限公司(以下简称“无问芯穹”)发生工商信息变更,新增多名股东。值得注意的是,其新增的股东包括百度旗下的北京百度网讯科技有限公司、腾讯完全持股的广西腾讯创业投资有限公司、以及北京智谱华章科技有限公司。
以上几家企业均为目前国内最受关注的科技巨头或大模型创业公司。
目前,无问芯穹注册资本由119万元增至约152万元,同时也新增了多名主要人员。
值得注意的是,目前无问芯穹并未官宣过融资。
结合公开信息,无问芯穹已完成三轮融资,均未对外公布,领投方为红杉中国。此前的其他投资方包括徐汇资本、砺思资本、启明创投等机构。
根据工商变更记录显示,早在今年6月,即无问芯穹创立的第二个月,红杉就通过旗下红创科兴(宁波)科技有限公司(下称:红创科兴),出现在了北京无问芯穹的投资人列表,此次变更为“退出”,或为后续转向上海无问芯穹做准备。
随后在今年9月,在目前无问芯穹的主体——上海无问芯穹中,红创科兴初次现身,并已是该公司的投资人。与红杉同时入股的还包括金沙江、徐汇资本、无限基金。
最新持股情况显示,上海无问长庚企业管理合伙企业(有限合伙)为无问芯穹的大股东,直接持股约15.220%。
而红杉共持有无问芯穹约10.722%股份,系最大外部机构股东;此外,徐汇资本持股约2.315%,金沙江与无限基金均持股约1.286%。
短短两个多月后,无问芯穹于11月30日进行了第二次投资人(股权)变更,股东新增腾讯、百度、经纬、真格、启明创投、智谱AI等。
公开资料显示,无问芯穹成立于2023年5月,主要瞄准大模型算法向大算力芯片的高效部署问题,经营范围包括人工智能理论与算法软件开发、人工智能基础软件开发、人工智能应用软件开发等。
无问芯穹的创始人是清华大学电子工程系系主任汪玉教授,公司法定代表人曾书霖博士也是汪玉的学生。
根据公开资料,曾书霖2018年本科毕业于清华大学电子工程系,而后继续攻读博士学位,主要研究方向为软硬件协同设计、深度学习加速器和FPGA(现场可编程门阵列)硬件虚拟化。值得注意的是,曾书霖的导师是清华大学电子系教授、系主任汪玉。
无问芯穹也让再次踏上芯片创业道路的汪玉重新出现在人们的视线当中。
据悉,汪玉于1998年入学清华,本硕博均在清华,自2007年开始留校任教。他是清华电子工程系首位80后系主任,也是该系创办以来第二年轻系主任。汪玉长期从事智能芯片、高能效电路与系统研究,曾多次在顶会拿下最佳论文奖,共发表IEEE/ACM杂志文章50余篇,谷歌学术引用17000余次。
深鉴科技创始团队,右二为汪玉
这不是汪玉教授第一次实践“上阵师生兵”的AI产学结合,此前他曾创办AI芯片公司深鉴科技。
2016年1月,以汪玉教授为负责人的深度学习处理器项目,通过清华大学电子信息学院论证并获得支持。随后,项目团队以知识产权转化入股、创立AI芯片公司深鉴科技,进行产业化运营。其学生姚颂、单羿是深鉴科技创始成员。
深鉴科技曾推出多款核心产品,包括人脸识别模块、视频结构化解决方案、深度学习芯片等。先后获得多轮融资,投资方包括高榕资本、金沙江创投、赛灵思、三星风投等知名机构。2018年,深鉴科技被全球最大的FPGA厂商赛灵思收购,随后赛灵思也被美国芯片巨头AMD所收购。因此,深鉴科技成为国内商业化发展最成功的AI芯片公司。
在今年轰轰烈烈的大模型创业热潮中,此前已成功“上岸”的汪玉再次携手学生创业,创办了无问芯穹。
据介绍,无问芯穹以无穹大模型能效优化工具包为基础,整合国产芯片算力, 构建统一算力底座。在AI大模型多样、算力多样的分散行业格局下,构建连接模型和算力的M*N中间层。通过模型层、系统层、硬件层的跨层协同优化,发挥各类算力硬件的效率,助力大模型应用落地。
具体而言,无问芯穹主要提供智算云服务、智算一体机、大模型能效优化工具包等解决方案。同时,公司还自研了行业大模型,包括政务大模型、法律大模型、证券大模型等。
解决什么痛点?无问芯穹商业化副总裁李枫在9月及11月份的相关活动中做过详细分享——《加速大模型落地最后一公里》。
据李枫介绍,为了解决模型和算力之间的瓶颈,无问芯穹致力于提供大模型软硬一体化自动化优化方案。向上,服务多家大模型算法企业;向下,联动多家国产芯片公司。产品上,实现了大模型在多种硬件上的M×N一键部署平台,降低大模型的使用门槛,让模型部署越快越好,真正成为AI 2.0时代大模型的基础设施。
为了助力 AI 2.0 时代大模型落地,无问芯穹着力于解决四个痛点需求。
1.支持长文本或大输入:比如之前支持 2K token 的模型,可以用快速推理和训练,使它支持 32K token,就可以做好例如专业长文本的信息检索、生成、会议聊天助手等应用;
2.提升性价比:把语言和多模态生成模型部署到消费级显卡,甚至手机等终端设备上,让广大客户用得起;
3.垂直领域适配:用大模型通用能力帮助各行各业的人们提升体验和效率;
4.一键式部署:让大模型能低人力成本被部署到各种场景,让每个工厂、学校、家庭甚至个人都能用到它的能力。
无问芯穹刷新大模型优化记录大语言模型(LLM)的风靡,其应用落地成为各行各业关注的重点。然而,要降低其落地成本,提升LLM推理速度是关键。
据机器之心报道,11月3日,无问芯穹、清华大学和上海交通大学的联合团队提出了一种LLM推理加速引擎——FlashDecoding++,该引擎同时支持包括NVIDIA和AMD的GPU。相较于斯坦福大学等团队研究者近期提出的FlashDecoding,该引擎推理速度提升明显,例如在NVIDIA A100上相较FlashDecoding提速37%,在NVIDIA和AMD的多GPU后端上相较Hugging Face实现加速2~4倍。
目前,关于FlashDecoding++的介绍论文已被发布在开放获取平台arXiv上。(论文地址:https://arxiv.org/pdf/2311.01282.pdf)
据测算,OpenAI的ChatGPT线上推理的成本高达每天数百万美元。如何提升LLM推理速度并降低其成本,成为近期产业界和学术界的热点。目前,全球已有来自包括斯坦福大学、NVIDIA、微软、加州大学伯克利分校、商汤科技等的研究团队关注该问题并提出相应方案。
大模型的推理任务一般为根据输入的文字(token),计算生成包括但不限文字的新内容。在此过程中,LLM的推理计算可分为Prefill和Decode两个阶段,其中Prefill阶段通过理解输入文字生成第一个token,Decode阶段则顺序输出后续token。在这两个阶段,LLM推理的计算可被分为注意力计算和矩阵乘计算两个主要部分。
FlashDecoding++的核心思想是,通过异步方法实现注意力计算的真正并行,并针“矮胖”矩阵乘优化加速对Decode阶段计算,进而实现加速推理速度的目标。实践表明,通过加速Prefill阶段的首个token生成速度以及Decode阶段后续token的生成速度,FlashDecoding++可以在长、短文本的生成上均取得加速效果。目前,FlashDecoding++可以实现NVIDIA与AMD等多款GPU后端的LLM推理加速。
据悉,该研究的三位共同一作分别是无问芯穹首席科学家、上海交通大学副教授戴国浩博士,无问芯穹研究实习生、清华大学硕士生洪可,无问芯穹研究实习生、上海交通大学博士生许珈铭。通讯作者为上海交通大学戴国浩教授和清华大学电子工程系主任汪玉教授。
目前,FlashDecoding++ 已被集成于无问芯穹的大模型计算引擎“Infini-ACC”中。在Infini-ACC的支持下,无问芯穹正在开发一系列大模型软硬件一体化的解决方案,其中包含大模型“无穹天权”、软硬件一体机等。
“现在大家都在做各种各样的非常厉害的芯片,但是,怎样去把模型更好的部署在这些芯片上,让做应用开发等领域人员不会花费额外的代价,其实会极大推动大模型研发。无问芯穹就是想要推动大模型技术设施发展进入各行各业,这也是我们努力的方向。”汪玉今年7月表示。
大模型算力成本高昂,芯片投资颇受关注大模型是今年资本市场中的宠儿,大模型的训练与优化高度依赖算力资源,也带动了芯片赛道的爆火。由于芯片成本高昂,在需求快速拉动的情况之下,国内外的科技巨头及大模型创业公司,都在研发AI芯片补齐自己的能力或是加大芯片领域的投资力度。
国际方面,微软在11月举行的年度IT专业人士和开发者大会Ignite上推出了两款自研芯片——云端AI芯片微软AzureMaia100和服务器CPU微软AzureCobalt100。据介绍,Maia100是微软为微软云中大语言模型训练和推理而设计的第一款AI芯片,Cobalt100是微软为微软云定制开发的第一款CPU,也是微软打造的第一款完整的液冷服务器CPU。据微软透露,OpenAI已率先试用了Maia100芯片。
为减少对英伟达芯片的依赖和解决算力成本高昂的问题,OpenAI也在芯片领域动作频频。据外媒近日报道,OpenAI在2019年就与芯片初创企业RainAI签署了一份意向书,在该公司的芯片上市后将斥资5100万美元购买这些芯片。RainAI由OpenAI的创始人兼首席执行官奥特曼亲自投资,投资额已超过100万美元。早在10月,市场上就有消息传OpenAI拟自研AI芯片,计划收购相关公司。
国内方面,许多互联网巨头已经参与芯片研发。与此同时,芯片投资领域也颇受关注,记者梳理发现,近期已有多个AI芯片创企获得融资。9月底,专注人工智能云端算力产品的燧原科技宣布完成D轮融资,融资规模达到20亿元人民币,成为年内国产AI芯片领域的单笔最大融资。投资方包括上海国际集团旗下子公司及产业基金、腾讯、美图公司、武岳峰科创、红点中国等多家新老股东。
11月27日,视觉处理AI芯片及解决方案初创企业银牛微电子在官方平台发文,称公司已完成超5亿元A轮融资。联合领投方为合肥产投和精确资本,津西资本、天娱数科及部分老股东跟投,募集资金主要用于加速新一代芯片及模组研发、新领域产品解决方案研发以及团队发展建设等。
据36氪报道,肇观电子日前完成2亿人民币D轮融资,由华山资本领投,资金将用于下一代芯片和模组的研发和迭代。肇观电子于2016年在上海成立,聚焦计算机视觉和AI端侧芯片及模组研发,服务工业、机器人、汽车、消费、安防等场景,致力于赋予所有的智能设备视觉能力。
中信证券近期的一份研报指出:“展望2024年,我们认为AI将开始全面落地,持续驱动科技产业投资。站在投资维度,我们判断算力端将迎来重要投资机遇:一方面,光模块、服务器等在AI驱动下需求将持续增长;另一方面,半导体设备、AI芯片等在海外管制下发展紧迫性增强。”