首页
下载应用
提交文章
关于我们
🔥 热搜 🔥
1
上海
2
习近平
3
新疆
4
鄂州父女瓜
5
乌鲁木齐
6
疫情
7
H工口小学生赛高
8
习明泽
9
芊川一笑图包
10
印尼排华
分类
社会
娱乐
国际
人权
科技
经济
其它
首页
下载应用
提交文章
关于我们
🔥
热搜
🔥
1
百度
2
今日热点
3
微信公众平台
4
贴吧
5
opgg
6
dnf私服
7
百度贴吧
8
知乎
9
dnf公益服
10
百度傻逼
分类
社会
娱乐
国际
人权
科技
经济
其它
”FAN某”的离婚财产分割判决书(全文)
”FAN某”的离婚财产分割判决书(全文)
刑讯逼供、管辖异议,唐山杨立国涉黑案争议
大瓜!找工作太难了:私募大佬白嫖95后小姐姐事件刷屏!
深度 |台积电断供大陆芯片,任正非罕见感谢特朗普,美霸权摇摇欲坠
生成图片,分享到微信朋友圈
6月7日 下午 7:10
6月7日 下午 8:17
6月8日 上午 8:30
6月8日 下午 8:41
6月9日 上午 9:08
6月9日 下午 9:19
6月10日 上午 9:30
6月10日 下午 9:51
6月11日 上午 10:02
6月11日 下午 10:23
6月12日 上午 10:32
6月12日 下午 10:43
6月13日 上午 11:30
6月13日 下午 11:40
6月14日 上午 11:59
6月15日 上午 12:14
6月15日 下午 12:39
6月16日 上午 12:57
6月16日 下午 1:17
6月17日 上午 1:31
6月17日 下午 1:50
6月18日 上午 2:01
6月18日 下午 2:25
6月19日 上午 2:34
6月19日 下午 2:47
6月20日 上午 2:59
6月20日 下午 3:08
6月21日 上午 8:49
6月21日 下午 10:44
6月22日 下午 12:26
6月23日 上午 12:58
6月23日 下午 1:43
6月24日 上午 2:01
6月24日 下午 2:49
6月25日 上午 2:55
6月25日 下午 3:42
6月26日 上午 3:51
6月26日 下午 4:03
6月27日 上午 4:11
查看原文
科技
最强开源大模型面世:阿里发布Qwen2|SiliconCloud上新
Original
SiliconCloud
硅基流动
2024-06-07
今天凌晨,阿里巴巴通义千问团队发布了Qwen2系列开源模型。该系列模型包括5个尺寸的预训练和指令微调模型:Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B以及Qwen2-72B。
随即,硅基流动团队在云服务平台SiliconCloud上线了
Qwen2-7B、Qwen2-57B-A14B、Qwen2-72B
模型。
欢迎来玩儿:
https://cloud.siliconflow.cn/models/text/chat/
注意!!!
与本周发布的GLM-4-9B模型一样,上述三款Qwen2模型同样已进入“6.18购物狂欢节”福利包:“
新用户送3亿token”。
注册即可畅玩(
截止6月18日23:59
):
www.siliconflow.cn/zh-cn/siliconcloud
Qwen2模型评测表现及亮点
Qwen2在多个评测基准上具有领先优势。
据Qwen官方博客介绍,在针对预训练语言模型的评估中,对比当前最优的开源模型,Qwen2-72B在包括自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型,如Llama-3-70B以及Qwen1.5-110B。
这得益于其预训练数据及训练方法的优化。
大规模预训练后,他们对模型进行精细的微调,大幅提升了模型的基础能力以及模型的智能水平。
他们全面评估了Qwen2-72B-Instruct在16个基准测试中的表现。Qwen2-72B-Instruct在提升基础能力以及对齐人类价值观这两方面取得了较好平衡。相比Qwen1.5的72B模型,Qwen2-72B-Instruct在所有评测中均大幅超越,并且能匹敌Llama-3-70B-Instruct。
而在小模型方面,Qwen2系列模型基本能够超越同等规模的最优开源模型甚至更大规模的模型。相比近期推出的最好的模型,Qwen2-7B-Instruct依然能在多个评测上取得显著的优势,尤其是代码及中文理解上。
在代码与数学能力方面,Qwen2-72B-Instruct具有显著的效果提升。
在长文本处理方面,Qwen2系列中的所有Instruct模型,均在32k上下文长度上进行训练,并通过YARN或Dual Chunk Attention等技术,让Qwen2-7B-Instruct和Qwen2-72B-Instruct实现了长达128K tokens上下文长度的支持。他们还开源了一个智能体解决方案(
github.com/QwenLM/Qwen-Agent
),用于高效处理100万tokens级别的上下文。
在中文英语的基础上,他们针对性地27种语言进行了增强,并针对性地优化了多语言场景中常见的语言转换(code switch)问题,模型当前发生语言转换的概率大幅度降低。
此外,在安全方面,通过显著性检验(P值),Qwen2-72B-Instruct模型在安全性方面与GPT-4的表现相当,并且显著优于Mistral-8x22B模型。
Qwen2模型地址:
https://modelscope.cn/organization/qwen
关于SiliconCloud
SiliconCloud是集合主流开源大模型的一站式云服务平台,为开发者提供更快、更便宜、更全面的模型API。
目前,SiliconCloud已上架包括Qwen2、GLM-4-9B-Chat、DeepSeek V2、SDXL、InstantID在内的多种开源大语言模型、图片生成模型,支持用户自由切换符合不同应用场景的模型。同时,SiliconCloud提供开箱即用的大模型推理加速服务,为生成式AI应用带来更高效的用户体验。
真正在乎大模型推理性能和成本的开发者,绝不会错过SiliconCloud。
更何况,现在还送3亿token。
快试试吧
:
www.siliconflow.cn/zh-cn/siliconcloud
硅基流动
致力于打造大模型时代的AI基础设施,通过算法、系统和硬件的协同创新,跨数量级降低大模型应用成本和开发门槛,加速AGI普惠人类。
扫码加入技术交流群
官方网站
:www.siliconflow.cn
简历投递
:talent@siliconflow.cn
商务合作
:contact@siliconflow.cn
继续滑动看下一个
轻触阅读原文
硅基流动
向上滑动看下一个
您可能也对以下帖子感兴趣
{{{title}}}
文章有问题?点此查看未经处理的缓存