FlagEval 8月榜单:新增通义千问、Llama2等多个模型评测,新增基座模型代码生成能力评测
Highlight:
统一评测「起跑线」评测过程透明,力求过程公平、结果公正,是 FlagEval 一贯的「金标准」。
基座模型:Qwen-7B(通义千问)、InternLM-7B 超越 Llama2-13B
SFT模型:InternLM-chat-7B、AquilaChat-7B 超越 Llama2-chat-13B
新增基座模型代码生成能力评测:InternLM-7B、Qwen-7B 领先
新增多个明星开源模型 评测:Llama2 / Qwen / InternLM / MPT / Falcon
基座模型(Base Model)榜单:
Qwen-7B、InternLM-7B 超越 Llama2,分列第一、第二名。
有监督微调模型(SFT Model)榜单:
InternLM-chat-7B 夺魁,刷新中英客观评测记录,悟道·天鹰AquilaChat 排名第二;
Qwen-chat-7B 中英文客观评测结果欠佳,远低于其基座模型的客观评测表现;但在中文主观评测上,Qwen-chat-7B 以 75.4% 准确率排名第一,与第二名 ChatGLM2-6B(62.1%)拉开较大差距。
备受关注的 Llama2 基座模型 7B、13B 综合评测结果相比于第一代提升了 10%、25%;Llama2-Chat 7B、13B 英文能力突出,中文存在明显短板,中文主观评测准确率仅为 18.3%、22%,在 SFT 模型榜单上排名第三,仅次于 InternLM 和悟道·天鹰 Aquila。
新增针对基座模型 HumanEval代码生成能力评测
近期,“代码生成能力”新晋成为大语言模型领域的热门话题,开源基座模型如 Llama2 的技术报告特别强调了“代码生成能力”作为其关键特性。
基座模型强大的代码生成能力为后续的代码语料微调提供了坚实基础。因此,本期榜单引入了针对基座模型的 HumanEval 评测:
HumanEval 是由 OpenAI 编写发布的代码生成评测数据集,包含 164 道人工编写的Python编程问题,模型针对每个单元测试问题生成k(k=1,10,100)个代码样本,如果有任何样本通过单元测试,则认为问题已解决,并报告问题解决的总比例,即 Pass@k 得分。
*Falcon-7b HumanEval 评测结果出自 Meta Llama2 官方论文 :
https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/
评测说明:
在评测时,FlagEval 根据数据集的不同规模进行了自动化采样。 更多评测结果请登录官网查看:https://flageval.baai.ac.cn/
悟道·天鹰Aquila 系列模型代码&权重已开源并支持商用许可:
使用方式一(推荐):通过 FlagAI 加载 Aquila 系列模型
https://github.com/FlagAI-Open/FlagAI/tree/master/examples/Aquila
使用方式二:通过 FlagOpen 模型仓库单独下载权重
https://model.baai.ac.cn/
使用方式三:通过 Hugging Face 加载 Aquila 系列模型
https://huggingface.co/BAAI