为什么开源大模型(LLM)正在被海外企业青睐?
关键讯息,第一时间送达!
在生成式AI席卷全球之际,多数企业都在跃跃欲试。然而选择开源大模型or闭源大模型?That's a question.
虽然像OpenAI的ChatGPT和竞争对手Anthropic背后的闭源模型在现阶段获得了足够的关注和影响力,然而企业端,从目前公开的一些用例来看,开源大语言模型(LLMs)可能在生成式AI的应用上影响更为深远。当然这一切还处于早期阶段,今年晚些时候案例数量将大幅增加。
开源LLM目前用户反馈不多的原因是开源起步较晚
Meta在2023年2月发布了第一个主要的开源模型Llama,比OpenAI在2022年11月公开发布其ChatGPT模型晚了三个月,而目前在各项基准测试中表现最好的开源LLM -Mixtral在2023年12月才发布。
因此,开源LLM部署的例子才刚刚开始出现,用户的反馈循环还没有建立起来。
企业应用闭源大模型的局限:
缺乏透明性:闭源模型的内部工作方式通常不公开,这可能导致企业对其缺乏充分的信任
限制创新:闭源模型可能限制广大研究者和开发者对模型的改进和创新,因为他们无法访问和修改模型的源代码
难以识别和纠正偏见:如果模型内部存在潜在的偏见,闭源模型的这种不透明性可能使这些问题更难被识别和纠正
过度依赖开发方:使用闭源模型的公司可能过度依赖模型的开发方,这可能导致市场过度集中和缺乏多样性
成本问题:虽然闭源模型可能提供了一些优化和特性,但使用它们可能需要支付额外的费用。长期来看,开源模型可能更具成本效益,因为你不需要为IP和开发的额外成本付费
使用限制:闭源模型可能有使用限制,例如只能在特定的硬件或软件环境中运行,或者对商业用途有限制
难以集成:在某些情况下,将闭源模型集成到现有的系统或应用中可能会更困难,因为可能需要与模型开发者进行协调,或者需要遵守特定的接口和协议
数据隐私和保密性:使用闭源模型可能涉及到数据隐私和保密性的问题,因为你可能需要将数据发送到模型开发者的服务器上进行处理
企业应用开源大模型的优势:
灵活性:开源大模型是公开可用的,因此开发者可以根据自己的需求自由地使用和修改这些模型。这使得开发者可以根据具体的任务和数据进行模型调整和优化,从而提高模型的性能和适应性
可扩展性:开源大模型通常都具有非常强大的计算能力和学习能力,这使得它们可以在各种不同的应用场景中实现高度可扩展的部署。同时,由于这些模型是开源的,因此开发者可以在此基础上进一步开发新的功能和模型
低成本:相较于传统的专有软件和算法,开源大模型的使用成本非常低。这主要是因为这些模型是免费的,并且由于开源社区的贡献,其维护和升级成本也非常低
多模型选择:一些公司,如Intuit和Perplexity(人工智能搜索引擎),希望在单一应用中使用多个模型,以便选择对特定子任务有利的模型。这些公司已经构建了生成性AI“编排层”来自动完成这个任务,囊括了开源和闭源模型。
长期成本效益:虽然初始部署开源模型可能更为繁琐,特别是在大规模运行模型时,但如果你有自己的基础设施,可以通过使用开源模型节省资金。长期来看,开源可能更具成本效益,因为你不需要支付额外的IP和开发成本
广泛的实验和应用:许多企业正在大量试验开源大模型,只是时间问题,他们就会部署这些模型。例如,汽车公司Edmunds和欧洲航空公司EasyJet正在利用Databricks的lakehouse平台(现在包括支持开源大模型的Dolly)来试验和构建开源大模型驱动的应用。
目前看到的一些海外企业的用例:
VMWare
VMWare部署了HuggingFace的StarCoder模型,该模型通过帮助开发者生成代码,提高了他们的工作效率。VMWare选择自行托管该模型,而不是使用像微软拥有的Github的Copilot这样的外部系统,这可能是因为VMWare对其代码库非常敏感,不希望让微软接触到它。IBM
IBM宣布了其新的内部咨询产品Consulting Advantage,该产品利用由Llama 2驱动的开源LLM。
IBM 的285,000名员工依赖公司的AskHR应用,来回答员工在各种HR事务上的问题,该应用是基于IBM的Watson Orchestration应用构建的,该应用也是基于开源LLM。
Walmart
这家零售巨头已经构建了数十个对话AI应用,包括一个由一百万Walmart员工用于客户互动的聊天机器人。使用的模型从Google在2018年发布的BERT开源模型到GPT-4和其他的LLM,以防自己被绑定在一个LLM上面。Shopify
Shopify Sidekick是一个AI驱动的工具,利用Llama 2帮助小企业主自动化管理他们的商务网站的各种任务,如生成产品描述、回应客户询问和创建营销内容。格莱美奖
IBM昨天还宣布与格莱美奖的所有者Recording Academy达成一项协议,提供一项名为AI stories的服务,该服务利用在IBM的Wastonx.ai工作室上运行的Llama 2,帮助该组织生成定制的AI生成的洞察和内容。该服务已将艺术家及其作品相关的数据集向量化,以便LLM可以通过RAG数据库检索。然后,粉丝将能够与内容互动。更多案例参考:How enterprises are using open source LLMs: 16 examples (venturebeat.com)