行业观察 | 探索大语言模型,“对症下药”很关键
本文整理自达观数据创始人陈运文的演讲,内容主要分为六块,分别是:
1. 参数规模和数据规模的探索
2. 垂直领域适应预训练
3. 微调技术探索
4. 提示工程和垂直优化
5. 模型训练加速思路
6. 模型功能的垂直效能增强
在达观数据探索大语言模型应用过程中,他将团队的思考列为了四点:
1. 整体来看,尽管模型的参数规模越大越好,但可探索性价比更高的参数规模方案
2. 训练数据尽管越多越好,但针对垂直场景可探索更高效和有针对性的数据提炼方法
3. 为强化垂直方向的效果,可在模型预训练和微调技术上探索一些好的思路
参数规模和数据规模的探索
DATAGRAND一、缩放法则 (Scaling Laws)
众所周知,大模型的算力非常惊人。在 2020 年,从 OpenAI 在语言模型方面的研究可以看到,语言模型的效果与参数量、数据量、计算量基本呈平滑的幂定律——缩放法则 (Scaling Laws) 。随着模型的参数量(Parameters)、参与训练的数据量(Tokens)以及训练过程累积的计算量(FLOPS)的指数性增大, 模型在测试集上的 Loss 就线性降低,也就意味着模型的效果越好。
Kaplan J, McCandlish S, Henighan T, et al. Scaling laws for neural language models[J]. arXiv preprint arXiv:2001.08361, 2020.
如下图所示,在运算量的增加过程中,参数规模的增加可以起到更关键的作用。在给定的计算量且参数规模较小时, 增大模型参数量对于模型效果的贡献,远优于增加数据量和训练步数。这也作为后续推出的 GPT-3(175B) 和其他千亿级别模型奠定了理论基础。
二、Compute-Optimal
在 2022 年,DeepMind 在 ScalingLaw 里又做了进一步分析。研究通过定量的实验验证,语言模型训练数据大小,应该和模型参数量大小等比放大。可以看到,在计算总量不变的情况下,模型训练的效果在参数量和训练数据量当中有个最优平衡点,曲线下面的最低点是在参数规模和训练数据量当中有个非常好的折中点。
进一步研究表明,像 GPT-3(175B) 这么大规模的参数里,用这三种计算方式进行拟合的话,会发现 GPT-3 并没有充分得到训练。
三、Open and Efficient
Touvron H, Lavril T, Izacard G, et al. LLaMA: Open and Efficient Foundation Language Models[J]. arXiv preprint arXiv:2302.13971, 2023.三、Open and Efficient
四、数据规模存在瓶颈 :开放数据即将耗尽
高质量的语言数据按照目前的发展速度,预计 2026 年可能就要耗尽
低质量的语言数据(如日常聊天等)到 2025 年就耗尽;
多模态的数据(比如视觉图像)到 2060 年要耗尽;
五、通用大模型的预训练数据集研究
大规模语言模型的预训练数据规模不断增加,但即使使用的是开放数据,也少有团队公开所使用的数据集和其包含的详细信息。通过 Pile 数据集提供的为数不多的 “Datasheet for Datasets” 信息可以看到,Wiki 百科、书籍、学术期刊等高质量语料数据起到关键性作用。
六、通用预训练之对数据多样性的分析
六、通用预训练之对数据多样性的分析
在通用预训练过程中,不同类型的文本代表不同的能力。如绿色的文本是训练通用的知识。像学术文本(蓝色),包括一些出版物(橙色)等等,一部分是训练专业领域的知识,另一部分是训练一些带有情感的讲故事和创造性文艺创作的能力。对话文本(黄色)虽然规模不大,但是它对提升对话能力非常有帮助。除此之外,还有训练 COT 能力的代码、数学题等,这些数据规模参差不齐,但多样性的数据对提升语言大模型的综合性能起到非常重要的作用。
七、多语种和能力迁移
Blevins T, Zettlemoyer L. Language Contamination Helps Explains the Cross-lingual Capabilities of English Pretrained Models[C]//Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing. 2022: 3563-3574.七、多语种和能力迁移
八、选择最合适的训练数据
Madaan A, Zhou S, Alon U, et al. Language models of code are few-shot commonsense learners[J]. arXiv preprint arXiv:2210.07128, 2022.
在复杂任务如事件和图推理上的实验表明,代码训练显著增强大模型的常识推理能力,且仅使用有限的代码训练量就 能取得比 fine-turned T5 模型明显得多的效果提升。
九、探索预训练的数据过滤和提纯方法
现在常用的模型数据提纯方法有两类,一类是上图这个,它用到传统的文本分类技术,将高质量的文本作为正面的样本集合,一部分如大量带有互联网上的垃圾广告或者低质量评论等数据做负面样本。标注以后送到分类器里分类,再把高质量的文本提取出来。这是一种常规方法,但严重依赖文本分类、数据标注等,费时费力。
垂直领域适应预训练
DATAGRAND
探索垂直领域大模型预训练的三种思路:
先用大规模通用语料预训练,再用小规模领域语料二次训练 直接进行大规模领域语料预训练 通用语料比例混合领域语料同时训练
一、探索路线一:自适应预训练
一、探索路线一:自适应预训练
先大规模通用语料预训练,再用小规模领域语料预训练。
这里有两种不同的处理方法,一种是领域自适应的预训练,叫 “DAPT”,DAPT 后在领域任务上相比通用模型效果提升,但是 DAPT 后的领域模型在其它领域上效果比通用模型效果差。
另外一种叫任务自适应预训练,它是在任务的数据集进行训练,叫 “TAPT”。
TAPT 相比通用模型也更好,DAPT +TAPT 效果最佳 。
二、预微调
二、预微调
预微调(Pre-Finetuning)技术也是路线一当中可以尝试的一个方法。在预微调的过程中不同任务的 loss 进行缩放后再累加,而且对预微调工作不进行数据采样,维持它的自然分布效果最佳。
如图,多任务的数据集对它进行 Pre-Finetuning,不同的任务集合越多,最终得到的预微调的模型效果就越好。
预微调模型的效果比原始模型的效果在上面几个经典的大语言模型上都取得了不错的效果。
三、能力对比
—— OpenAI 《Evaluating large language models trained on code》
四、探索路线二:效果分析
四、探索路线二:效果分析
直接进行大规模领域语料预训练工作。
一个医学领域的代表模型 PubMedGPT 2.7 B。一个是金融领域 BBT-FinT5 模型。它们的参数规模都不大,但是这些用垂直领域的数据做的专用训练,它的效果比参数规模更小一点的小模型来说有非常明显的提升。另外,和相同规模通用大规模的 Finetune 相比,垂直领域大模型的效果仍然是领先的。
因此,路线二是一个性价比非常高的方案,它用到的参数规模并不大,但在垂直领域的效果不错。同时,垂直领域大模型所用资源会比通用大模型少很多,并且和超大规模模型在垂直领域的效果是接近的,这种方式也给我们开启了一些尝试的空间。
知识增强是专业领域的知识增强,可以较好的探索路线二时提升它的专业模型训练效果。
应用了知识增强技术的领域大模型在领域任务上的效果, 好于领域小模型和通用大模型。所以这可能是一条值得去探索的中间道路,是一种垂直领域比大模型要略小一点,但比小模型要大的中间态的模型。
六、探索路线三:语料按比例混合,同时预训练
数据规模:通用语料+领域语料 > 千亿 tokens
数据比例:领域语料占总语料比例应显著高于通用语料中该领域的自然比例,且领域语料占总语料比例应显著高于通用语料中各领域自然比例的最大值(显著高于的含义:可能是至少高 1 个数量级)
模型规模:> 10B
保障训练batch中数据异质性,使得 loss 下降在训练过程中更平稳
知识增强技术
微调领域增
微调技术探索
DATAGRAND
微调技术探索
一、增量微调
一、增量微调
我们对微调技术做了一些探索,目标是为了降低大模型的微调成本,同时能够更高效地把一些专业领域的知识引入进来。
上图是其中一个研究结果,像 BLOOMZ、Flan-T5、mT0 这些模型上面,通过使用多任务的提示微调或者指令微调技术,效果有不错的提升。
三、COT(Chain-of-Thought)微调
三、COT(Chain-of-Thought)微调
提示 Prompt 垂直优化
DATAGRAND
一、提示工程( Prompt Engineering ) 提示 Prompt 垂直优化
DATAGRAND
这一过程当中,产品化很重要。今天所谓的指令提示工程,很多时候还是大段的文字,只不过不同的方式去描述而已。因此,未来在复杂的垂直领域任务可能需要极为丰富的 prompt 信息,包括各类事实、数据、要求等,并存在层层递进的多步骤任务,因此值得探索产品化方案来生成 prompt。
现在我们尝试两种思路,一种是产品化思路。产品化的是请垂直领域的专家,针对每项垂直任务,来设计用于生成 prompt 的产品,由专家编写大量不同的 prompt,评估或输出好的 prompt 后,进行片段切分,形成相应的产品,这对未来 AIGC 任务会起到很好的作用。另一种是自动化的思路,通过借过外部工具,或通过自动化的流程方法和训练方式,对 Prompt 进行自动优化。
这里有两种不同的技术路线,一种叫 APE 的技术,一种叫 DSP 的技术,它们基本思想都是让大语言模型加入到 Prompt 过程当中。另外,我们可以训练一个小的 LLM,它能够对 Prompt 进行有效提示,未来都可以在很多垂直领域里得到创新和应用。
模型训练加速思路
DATAGRAND整体来说,在我们工业界的模型加速大致有两块思路,一是分布式并行,二是显存优化工作。
有4种常见技术:
1. 数据并行(Data Parallelism):在不同的 CPU 上存放神经网络的副本,用更大的 batch size 来训练模型,来提高并行能力。当然也有不错显存优化方案,像混合精度训练、降低深度学习训练中间激活带来的显存占用、能够降低模型加载到显存当中的资源占用,以及我们通过去除冗余的参数,引入 CPU 和内存等等方式,能够解决显存容量不够导致的模型运算慢或者大模型跑不动的问题。
模型功能的垂直效能增强
DATAGRAND大语言模型存在很多缺陷,如存在事实性错误以及关键数据错误、垂直领域可能存在复杂的推理任务等。基于此,我们也在尝试一些不同的思路来做,比如在推理能力方面,我们也在尝试把复杂任务分解为多个简单任务,并且引入其他模型解决;在工具方面,有一些 ALM 的输出中包含特定的 token,激活去调用规则;在行为方面,使用一些工具对虚拟和现实世界进行影响。
一、利用 CoT 增强模型复杂推理能力
我们对原有的模型通过 CoT 做个增强训练,能有效提升它的 Few-Shot 或者 Zero-Shot 的能力。
二、使用其他模型
在商业领域长文档生成的需求很多,长文档生成工作可以引入其他模型和技术,叠加在当前的大语言模型上,来提升它的长文本的生成效能。
上图是使用外部语料库相应的一些算法研究出的成果。可以看到,小模型如果用外部语料库、专用语料库的模式,在有些任务上可以和大模型相媲美。而且应用场景广泛,实际落地中也探索了语言模型和知识图谱的交互。
五、内容转换
总结
DATAGRAND达观数据在垂直领域的语言模型方面的探索希望能够让大家对 LLM 的研发和落地有所启发。目前达观在研发“曹植模型”,未来希望能够为每个行业赋能。虽然大语言模型算力非常庞大,但模型当中仍有很多难题需要我们克服,我们相信“只要我们找到了路,就不怕路有多长”。
作者简介:陈运文,达观数据董事长兼 CEO,复旦大学计算机博士,计算机技术专家,2021 年中国青年创业奖,中国五四青年奖章,上海市十大青年科技杰出贡献奖获得者;国际计算机学会(ACM)、电子电器工程师学会(IEEE)、中国计算机学会(CCF)、中国人工智能学会(CAAI)高级会员;上海市首批人工智能正高级职称获得者。在人工智能领域拥有近百项国家技术发明专利,是复旦大学、上海财经大学、上海外国语学院聘任的校外研究生导师,在 IEEE Transactions、SIGKDD 等国际顶级学术期刊和会议上发表数十篇高水平科研成果论文;曾担任盛大文学首席数据官、腾讯文学高级总监、百度核心技术研发工程师。
-END-
本文转载自:达观数据 真格基金转载编辑:Amelia
往期回顾
行业动向1. 行业资讯丨2022下半年CATTI1—3级考试证书线上查询验证工作开始!2. 行业资讯 | 云译科技荣膺2022年深圳市『专精特新』中小企业
3. 国际口译峰会 | Cymo Note在目笔记:ChatGPT时代下人机合作的意义
4. 行业资讯 | 38所高校外国语言文学或翻译硕士调剂信息
5. 行业资讯丨往年MTI调剂信息汇总参考
行业洞见
行业技术
行业技术 | ChatGPT王炸更新!能联网获取新知识,可与5000+个应用交互,网友:太疯狂了 技术应用 | 如何利用ChatGPT搞科研? ChatGPT|ChatGPT的伦理问题(下) 对打GPT-4,文心一言抢先实测!画「林黛玉倒拔垂杨柳」很惊艳,但写代码不大行 GPT-4震撼发布:多模态大模型,直接升级ChatGPT、必应,开放API,游戏终结了?
精品课程
3月工作坊|ChatGPT时代机器翻译译后编辑工作坊即将开课 五一研修 | ChatGPT时代翻译技术北京线下班 精品课程 | 外语人如何使用ChatGPT优化机器翻译质量 云端实习营,带你在实践中学习翻译技术~ 一天一块钱,承包全年全方位语言服务知识学习!
资源干货
双语干货 | ChatGPT:OpenAI宪章 行业观察 | 从 AIGC 看机器翻译发展新机遇 双语干货 | 正式版来了!2023政府工作报告中英双语全文【附下载】 资源宝库 | 院校复试线也来了!出线后这三件事必做! 语言趣谈 | 和ChatGPT谈机器翻译与翻译AI应用
招聘就业1. 招聘快报 | 硬核语言专业线上实习就等你来!
2. 招聘快报 | 韩语、葡语口译招募3. 就业干货 | 理工科也能做翻译吗?4. 不知道去哪找优质实习?硬核语言专业线上实习机会来了!5. 实习资讯 | 疫情阻隔优质实习?硬核语言专业线上实习机会来了!