红杉领投,估值5.52亿美元!复旦学子、PyTorch前负责人林乔创业项目FireWorks AI完成5200万美元B轮融资
Highlights:
Fireworks AI成功筹集了5200万美元资金,红杉资本领投,公司估值因此提升至5.52亿美元。这笔资金将用于加速开发复合人工智能系统、扩大团队规模以及提升平台功能,从而推动人工智能在生产领域的应用。
Fireworks AI对其推理平台进行了升级,引入了最新模型、高级个性化定制功能以及提升了生产准备性。这些新特性让企业能够更轻松、迅速地定制模型和构建人工智能应用,无需依赖庞大的机器学习工程师或数据科学家团队。
Fireworks AI与MongoDB、Meta、NVIDIA、AMD等多家公司建立了合作伙伴关系。这些合作将为开发者提供一个准备就绪的生产平台,并提供从最先进模型到向量数据库等基础构建模块。
Fireworks AI正引领着向复合人工智能系统转型的趋势。我们的推理平台不仅提供了最快、最具成本效益的模型API,还通过强大的工具进行了增强,使开发者能够轻松组合多个模型、模态、检索器以及外部工具,构建更为复杂的系统。
我们非常高兴地宣布,Fireworks AI完成了由红杉资本领投的5200万美元B轮融资,公司估值提升至5.52亿美元。此轮的其他投资者包括NVIDIA、AMD和MongoDB Ventures。之前的投资者阵容强大,包括Benchmark、Databricks Ventures、前Snowflake首席执行官Frank Slootman、前Meta首席运营官Sheryl Sandberg、Airtable首席执行官Howie Liu、Scale AI首席执行官Alexandr Wang,以及来自LinkedIn、Confluent、Meta和OnePassword的高层管理人员。
这轮融资使Fireworks AI累计融资达到7700万美元。这笔投资将帮助我们推动行业向复合人工智能系统的转变,扩大我们的团队规模,并提升我们的平台功能,使开发者能够迅速将人工智能应用从原型开发阶段推进到生产部署。
红杉资本普通合伙人Sonya Huang对我说:“Fireworks AI正处于引领行业变革的最佳位置。他们团队在高性能推理堆栈构建方面的专业知识和启用复合人工智能系统的创新方法,将赋予开发者可扩展的人工智能解决方案,这些方案以前仅限于科技巨头使用。”
自成立以来,Fireworks AI一直为开发者提供最快、最具成本效益的推理服务,用于处理流行模型。如今,我们提供超过100个最先进的模型,涵盖文本、图像、音频、嵌入和多模态格式,这些模型经过优化,以降低延迟、提高吞吐量和减少每令牌的成本。我们的推理时间比vLLM快了12倍,比GPT4快了40倍。我们平台每天处理1400亿个令牌,API正常运行时间高达99.99%。
与通用的专有巨型模型不同,这些模型通常是标准化的、非私有的且难以定制,Fireworks AI提供更小、更适合生产的模型,这些模型可以私有和安全地部署。通过使用最少的人工策划数据,我们的超快速LoRA微调技术允许开发者快速定制模型以满足特定需求,从数据集准备到查询微调模型的转换只需几分钟。这些微调模型无缝部署,保持了与我们的基础模型相同的性能和成本优势。
像Cresta、Cursor和Liner这样的领先AI初创公司的开发者,以及像DoorDash、Quora和Upwork这样的数字原生巨头,都选择Fireworks AI,因为我们提供更小、更专业的模型。例如,Cursor使用了Fireworks AI定制的Llama 3-70b模型,在代码生成用例中实现了1000 tokens/sec的速度,如即时应用、智能重写和光标预测,这些都极大地提升了开发者的生产力。
我们持续通过与人工智能领域的顶尖供应商紧密合作来提升我们的平台,具体合作包括:
与MongoDB联手,用于互动式检索增强生成(RAG)。
与Meta、Mistral以及Stability AI的合作,确保在最先进模型上的最低延迟表现:对于Llama 3 70b模型,延迟时间仅为0.27秒;对于Mixtral 8x22b和7b模型,延迟时间缩短至0.25秒;对于采用Stable Diffusion XL处理的1024x1024像素图像,延迟时间控制在1.2秒。
与NVIDIA、AMD、AWS、Google Cloud Platform以及Oracle Cloud在基础设施优化方面的合作。
在过去的三个月中,我们推出了一系列新特性,极大地提升了性能同时减少了成本,有效缩小了原型设计与生产部署之间的差距。这些新特性涵盖:
FireAttention V2,这是基于定制CUDA内核的服务堆栈,针对RAG、多回合推理和多模态应用中的长上下文提示,推理速度提升了12倍。
Firefunction-v2,这是一种与GPT4o性能相当的功能调用模型,但运行速度比其快2.5倍,且成本仅为其10%。
除了无服务器和预分配云资源选项之外,我们还增加了按需GPU部署的选择,这对于那些需要高可靠性和快速响应但又不想被长期合约束缚的正在扩张的企业而言,是个理想的解决方案。
针对所有价格层级的开发者,我们提供了即用即付的计费方式、团队协作工具以及一套全新的指标监控面板。
虽然排行榜强调大模型,但现实世界中的人工智能成果,特别是在生产环境中,越来越多地来自于由多个组件组成的复合系统。复合人工智能系统利用各种相互作用的部分来应对任务,如多个模型、多模态、检索器、外部工具、数据和知识。类似于微服务,复合人工智能系统中的代理使用大语言模型完成单个任务,并集体解决复杂问题。这种模块化的方法使开发者能够以最少的编码创建多轮次、多任务的人工智能代理工作流程。它降低了成本和复杂性,同时提高了诸如搜索、领域专家辅助(例如编程、数学、医学)等应用的可靠性和速度。这一方法最初由加州大学伯克利分校人工智能研究实验室(BAIR)的Matei Zaharia等人在一篇博文中提出。
最近,Fireworks AI推出了一种复合人工智能系统的基本构建模块:FireFunction V2,这是一个开放权重的功能调用模型。FireFunction作为一个协调者,跨越了多个模型及其多模态能力、外部数据和知识源、搜索、转录以及其他API,同时保留了大语言模型的核心能力,如多轮对话。
关键特性包括:
开放权重模型,开箱即用提供高准确性和快速性能
具有低延迟和高吞吐量推理的云端和本地部署
基于模式的约束生成,以提高错误处理能力
通过微调和自定义部署实现定制能力
与流行的人工智能框架和广泛外部工具的无缝集成
Superhuman,一家人工智能驱动的电子邮件提供商,使用Fireworks创建了Ask AI,这是一个复合型人工智能系统,能从你的收件箱中迅速给出答案。用户只需提问,无需记住发件人、猜测关键词或搜索邮件。Ask AI利用函数调用来与搜索和日历工具交互,提示大型语言模型,并生成快速响应。