其他
SiliconCloud上线推理加速版Qwen2.5-7B/14B/32B/72B
• https://cloud.siliconflow.cn/s/Qwen2_5_32B
• https://cloud.siliconflow.cn/s/Qwen2_5_14B
• https://cloud.siliconflow.cn/s/Qwen2_5_7B
目前,Qwen2.5-7B可免费使用,而Qwen2.5-72B与此前发布的Qwen2-72B模型保持一致,仅需¥4.13/1M token,Qwen2.5-32B仅需¥1.26/M token,Qwen2.5-14B仅需¥0.7/M token。
此外,平台还支持开发者自由对比体验各类大模型,最终为自己的生成式AI应用选择最佳实践。
Qwen2.5系列模型评测表现及亮点
Qwen2.5-14B&32B为Qwen2.5系列新增的中型规模模型:Qwen2.5-32B的整体表现超越了Qwen2-72B,Qwen2.5-14B则领先于Qwen2-57B-A14B。 更大规模、更高质量的预数据训练集:预训练数据集规模从7T token扩展到了18T token。 知识储备升级:Qwen2.5的知识涵盖更广。在MMLU基准中,相较于Qwen2,Qwen2.5-7B&72B的得分分别从70.3提升到74.2,从84.2提升到86.1。此外,Qwen2.5还在GPQA、MMLU-Pro、MMLU-redux和ARC-c等多个基准测试中有明显提升。 代码能力增强:得益于Qwen2.5-Coder的突破,Qwen2.5在代码生成能力上也大幅提升。Qwen2.5-72B-Instruct在LiveCodeBench(2305-2409)、MultiPL-E和MBPP中的得分分别是55.5、75.1和88.2,优于Qwen2-72B-Instruct的32.2、69.2和80.2。 数学能力提升:引入了Qwen2-math的技术后,Qwen2.5的数学推理表现也有了快速提升。在MATH基准测试中,Qwen2.5-7B/72B-Instruct得分从Qwen2-7B/72B-Instruct的52.9/69.0上升到了75.5/83.1。 更符合人类偏好:Qwen2.5生成的内容更加贴近人类的偏好。具体来看,Qwen2.5-72B-Instruct的Arena-Hard得分从48.1大幅提升至81.2,MT-Bench得分也从9.12提升到了9.35,与之前的Qwen2-72B相比提升显著。 其他核心能力提升:Qwen2.5在指令跟随、生成长文本(从1K升级到 8K token)、理解 结构化数据(如表格),以及生成结构化输出(尤其是JSON)上都有非常明显的进步。此外,Qwen2.5能够更好响应多样化的系统提示,用户可以给模型设置特定角色或自定义条件。
Qwen2.5-14B模型在多项任务中表现稳健,尤其是在像MMLU和BBH这样的通用任务上,分别取得了79.7分和78.2分,超越了许多规模更大的竞品。
Qwen2.5-32B表现尤为出色,甚至优于参数更大的同类模型,特别是在数学和代码等挑战性任务中,Qwen2.5-32B大幅领先其前身Qwen1.5-32B,在MATH任务中获得57.7分,在MBPP中获得84.5分。
Qwen2.5-7B指令微调模型与基础模型
Token工厂SiliconCloud
Qwen2.5(7B)、Llama3.1(8B)等免费用
除了Qwen2.5-7B、Qwen2.5-14B、Qwen2.5-32B、Qwen2.5-72B,SiliconCloud已上架包括FLUX.1、DeepSeek-V2.5、InternLM2.5-20B-Chat、BCE、BGE、SenseVoice-Small、Llama-3.1、DeepSeek-Coder-V2、SD3 Medium、GLM-4-9B-Chat、InstantID在内的多种开源大语言模型、图片生成模型、代码生成模型、向量与重排序模型以及多模态大模型。
• 硅基流动成立这一年
• SiliconCloud上线Flux.1[dev]
• SiliconCloud上线DeepSeek-V2.5
• SiliconCloud更新日志0912:新增六大功能
• 一针见血,硅基流动发布毒舌AI“智说新语”
• 你与AI应用开发之间,只隔着一个API密钥
邀请好友体验SiliconCloud,狂送2000万Token/人
邀请越多,Token奖励越多
siliconflow.cn/zh-cn/siliconcloud
扫码加入用户交流群