查看原文
其他

SiliconCloud上线Reflection-Llama-3.1-70B

SiliconCloud 硅基流动
2024-09-30


(由SiliconCloud平台的图片生成模型Flux生成)

9月6日,AI写作初创公司HyperWrite推出了Reflection-Llama-3.1-70B,这是一个基于Llama-3.1-70B-Instruct的开源大语言模型,其显著特性是自我修正能力,使用的Reflection-Tuning技术使模型能够识别并修正自己的错误与幻觉,显著提高其准确性和可靠性。

官方称,该模型
在多项基准评测中的性能超过GPT-4o以及Llama-3.1-405B,不过,根据不少开发者的性能实测,它目前的版本总体与其他顶尖模型的表现相似。
OthersideAI (HyperWrite) 创始人Matt Shumer在X上的解释,目前上传到HuggingFace的Reflection-Llama-3.1-70B在上传过程中出现了问题,当前的模型权重混合了几种的不同模型,他们还在努力解决中。
无论如何,硅基流动团队还是第一时间在大模型API平台SiliconCloud上线了当前版本的Reflection-Llama-3.1-70B,用户可在实名认证后使用,感兴趣的朋友可以先试试。
感受一下Reflection-Llama-3.1-70B在SiliconCloud上的生成速度。
Playground传送门(需实名认证):

https://cloud.siliconflow.cn/playground/chat/17885302569
API文档:
https://docs.siliconflow.cn/reference/chat-completions-3
与其他各类开源大模型一样,开发者要在本地运行Reflection-Llama-3.1-70B模型有较高部署门槛与成本。现在,SiliconCloud上线该模型后,免去了开发部署的门槛,开发者可以轻松调用相应的API服务到实际应用中。
更重要的是,SiliconCloud平台对Reflection-Llama-3.1-70B做了推理加速,输出速度极快,能为你的生成式AI应用带来更高效的用户体验。

SiliconCloud平台的模型价格也极其亲民,Reflection-Llama-3.1-70B保持与Llama-3.1-70B一样的价格,只需¥4.13/1M token。此外,平台还支持开发者自由对比体验各类大模型,最终为自己的生成式AI应用选择最佳实践。


除了Reflection-Llama-3.1-70B,SiliconCloud已上架包括Qwen2InternLM2.5-20B-ChatBCE、BGESenseVoice-SmallLlama-3.1FLUX.1DeepSeek-V2-ChatDeepSeek-Coder-V2SD3 MediumGLM-4-9B-Chat、InstantID在内的多种开源大语言模型、图片生成模型、代码生成模型、向量与重排序模型以及多模态大模型。
其中,Llama3.1(8B)、Qwen2(7B、1.5B)等多个大模型API免费使用,让开发者与产品经理无需担心研发阶段和大规模推广所带来的算力成本,实现“Token自由”。
作为集合顶尖大模型的一站式云服务平台,SiliconCloud致力于为开发者提供更快、更便宜、更全面、体验更丝滑的大模型API。 
刚刚上线的Reflection-Llama-3.1-70B就是其中之一。后续Reflection-Llama-3.1-70B若有新版本更新,SiliconCloud也会及时跟进。

近期更新

 硅基流动成立这一年
• SiliconCloud上线Llama-3.1-405B
• SiliconCloud产品体验魔法师奖公布
• 你与AI应用开发之间,只隔着一个API密钥
• 手把手教你配OneAPI、LobeChat、MindSearch
• SiliconCloud API支持JSON模式,强化结构化输出

让超级产品开发者实现“Token自由”

邀请好友体验SiliconCloud
狂送2000万Token/人

邀请越多,Token奖励越多
siliconflow.cn/zh-cn/siliconcloud

扫码加入用户交流群
继续滑动看下一个
硅基流动
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存