查看原文
其他

BERT在小米NLP业务中的实战探索

小米AI实验室 PaperWeekly 2022-03-17





引言


近年来,预训练模型在自然语言处理(Natural Language Processing, NLP)领域大放异彩,其中最重要的工作之一就是 Google 于 2018 年发布的 BERT 预训练模型 [1]

自被发布以来,BERT 预训练模型就在多项自然语言理解任务上取得了优异的效果,并开启了预训练-微调的 NLP 范式时代,启发了 NLP 领域后续一系列的预训练模型工作。与此同时,BERT 模型在 NLP 相关工业领域也得到了广泛应用,并取得了良好的效果。

但由于工业领域相关业务的数据格式的复杂性,以及工业应用对推理性能的要求,BERT 模型往往不能简单直接地被应用于 NLP 业务之中,需要根据具体场景和数据对 BERT 模型加以调整和改造,以适应业务的现实需求。

小米 AI 实验室 NLP 团队自创建以来,就积极探索 NLP 前沿领域,致力于将先进的 NLP 技术应用于公司的核心业务中,支撑信息流、搜索推荐、语音交互等业务对 NLP 技术的需求。

近期,我们对 BERT 预训练模型在各项业务中的应用进行了探索研究工作,使用各项深度学习技术利用和改造强大的 BERT 预训练模型,以适应业务的数据形态和性能需求,取得了良好的效果,并应用到了对话理解、语音交互、NLP 基础算法等多个领域。

下面,我们将具体介绍 BERT 在小米 NLP 业务中的实战探索,主要分为三个部分:第一部分是 BERT 预训练模型简介,第二部分是 BERT 模型实战探索,第三部分是总结与思考。



BERT预训练模型简介

BERT 预训练模型的全称是基于 Transformer 的双向编码表示(Bidirectional Encoder Representations from Transformers, BERT)。

其主要思想是:采用 Transformer 网络 [2] 作为模型基本结构,在大规模无监督语料上通过掩蔽语言模型和下句预测两个预训练任务进行预训练(Pre-training),得到预训练BERT模型。再以预训练模型为基础,在下游相关 NLP 任务上进行模型微调(Fine-tuning)。

BERT 预训练模型能够充分利用无监督预训练时学习到的语言先验知识,在微调时将其迁移到下游 NLP 任务上,在 11 项下游自然语言处理任务上取得了优异的效果,开启了自然语言处理的预训练新范式。

接下来,我们具体介绍 BERT 模型的模型结构、预训练方法和微调方法。


2.1 模型结构


BERT 模型的结构主要由三部分构成:输入层、编码层和任务相关层,其中输入层和编码层是通用的结构,对于每一个任务都适用,因此我们主要介绍这两个部分。

BERT 模型的输入层包括词嵌入(token embedding)、位置嵌入(position embedding)段嵌入(segment embedding)。

与原始 Transformer 不同的是, BERT 模型的位置嵌入是可学习的参数,最大支持长度为 512 个位置。同时, BERT 模型的段嵌入用于在输入序列包含两个句子时区分两个句子。具体来说, BERT 模型在第一个句子上使用段 A 嵌入,在第二个句子上使用段 B 嵌入。

另外, BERT 模型在输入序列的第一个位置加上一个特殊的 [CLS] 标记用于聚合句子表示信息,并在两个句子之间使用特殊标记 [SEP] 用于分隔两个句子。BERT 的输入层将每个词的词嵌入、位置嵌入和段嵌入相加得到每个词的输入表示,如图 1 所示。

▲ 图1. BERT模型的输入层


BERT 模型的编码层直接使用了 Transformer 编码器 [2] 来编码输入序列的表示,将编码层的层数记为 L,把隐藏层的维度记为 H,把多头注意力的头数记为 A,多头注意力中的每个头的子空间维度设为 H/A,前馈神经网络的中间层维度设为 4H。

这样 BERT 模型的 Transformer 编码层就由 L, H, A 三个超参数决定。Devlin et al. [1] 定义了两种尺寸的 BERT 模型:

  • BERTBASE:L=12, H=768, A=12
  • BERTLARGE:L=24, H=1024, A=16

BERT 模型的任务相关层则根据下游任务不同而有所不同,如对于文本分类任务,任务相关层通常为带 softmax 的线性分类器。

2.2 预训练方法

BERT 模型采用了两个预训练任务:一是掩蔽语言模型(Masked Language Model, MLM),二是下句预测(Next Sentence Prediction, NSP)。通过这两个预训练任务,BERT 模型能够学习到先验的语言知识,并在后面迁移给下游任务。BERT 模型的预训练方法如图 2 所示。

▲图2. BERT模型的预训练方法


BERT 模型的第一个预训练任务是掩蔽语言模型。掩蔽语言模型(MLM)的原理是:随机选取输入序列中的一定比例(15%)的词,其中 80% 的概率用掩蔽标记 [MASK] 替换,10% 的概率随机替换成其他词,10% 的概率保持不变,然后根据双向上下文的词预测这些被掩蔽的词。

预训练时 BERT 模型通过最大化被掩蔽词的概率来预训练掩蔽语言模型。

BERT 模型的第二个预训练任务是下句预测。下句预测(NSP)任务的主要目标是:根据输入的两个句子 A 和 B,预测出句子 B 是否是句子 A 的下一个句子。

下句预测任务使用 BERT 模型编码后第一个位置([CLS])对应的向量表示,来得到句子 B 是句子 A 下一个句子的概率 。预训练时,若句子 B 是句子 A 在语料中的下一个句子,BERT 模型最大化如上所述的下句概率;否则最小化该下句概率。

BERT 模型预训练的目标函数,是两个预训练任务的似然概率之和。

2.3 微调方法

经过预训练的 BERT 模型可以用于下游的自然语言处理任务。在使用时,主要是在预训练 BERT 模型的基础上加入任务相关部分,再在特定任务上进行微调(fine-tuning), BERT 模型在几个下游自然语言处理任务上的微调方法如图3所示。

▲ 图3. BERT模型的微调方法


通常,我们取出 BERT 模型最后一层的向量表示,送入任务相关层中(通常是简单的线性变换层),就可以得到任务所要建模的目标概率。

例如,在文本分类任务中,我们取出最后一层 [CLS] 标记对应的向量表示,再进行线性变换和 softmax 归一化就可以得到分类概率。在微调时, BERT 模型和任务相关层的所有参数都一起更新,最优化当前下游任务的损失函数。

基于预训练-微调范式的 BERT 模型具有许多优点。通过在大规模无监督语料上的预训练, BERT 模型可以引入丰富的先验语义知识,为下游任务提供更好的初始化,减轻在下游任务上的过拟合,并降低下游任务对大规模数据的依赖。

同时, BERT 模型使用的深层 Transformer 编码层具有很强的表征能力,因此下游任务不需要太复杂的任务相关层,这简化了下游任务的模型设计,为各项不同的自然语言处理任务提供一个统一的框架。
 


BERT模型实战探索


在 BERT 模型的实际应用中,往往需要根据具体业务形态对 BERT 模型进行调整。原始的BERT模型只能对文本序列进行建模,缺乏对其他特征的建模能力;同时 BERT 模型的参数过多,推理速度较慢,不能满足业务上线性能需求。


另外, BERT 模型需要针对每个细分任务都各自进行微调,缺乏通用性,也不能很好地利用任务之间的共享信息。


在实践过程中,我们使用了特征融合、注意力机制、集成学习、知识蒸馏、多任务学习等多种深度学习技术对 BERT 模型进行增强或改造,将 BERT 模型应用到了多项具体任务之中,取得了良好的业务效果。


下面,我们主要介绍 BERT 模型在对话系统意图识别、语音交互 Query 判不停、小米 NLP 平台多粒度分词这三项业务中的实战探索。


3.1 对话系统意图识别


意图识别是任务型对话系统的重要组成部分,对于用户对话的自然语言理解起着非常重要的作用。给定一个用户 Query,意图识别模块能够将用户所要表达的意图识别出来,从而为后续的对话反馈提供重要的意图标签信息。

但在意图识别的过程中,由于实体槽位知识稀疏性的问题,完全基于用户 Query 文本的意图识别模型很难进一步提升效果。在对 Query 文本进行建模时,如果能够融合槽位知识特征,模型的意图识别效果可能会得到进一步提升。

因此,我们构建的意图识别模块的输入是用户 Query 文本和槽位标签,输出是意图类别,如下面的例子所示。

  • Query文本/槽位标签:播放张/b-music_artist/b-mobileVideo_artist杰/i-music_artist/i-mobileVideo_artist 的歌

  • 意图类别:music

不同于一般的意图识别只有 Query 文本特征,我们的融合槽位特征的意图识别模型输入还包括槽位标签特征,而且每一个位置还可能包括不止一个槽位标签。在尝试将 BERT 模型应用于意图识别任务时,如何将槽位标签特征合适地与 BERT 模型结合起来就成为一个需要解决的重要问题。

由于 BERT 预训练模型在预训练时并没有输入槽位信息,如果直接将槽位标签特征直接放入 BERT 模型的输入中,将会扰乱 BERT 预训练模型的输入,使得预训练模型过程失去意义。

因此,我们需要考虑更合理的方式融合槽位标签特征。经过探索和实验,最终我们采取了槽位注意力和融合门控机制的方法来融合槽位特征,融合了槽位特征的意图识别模型结构如图 4 所示。

▲ 图4. 融合槽位特征的意图识别模型


首先,我们使用预训练 BERT 模型编码 Query 文本,得到融合了预训练先验知识的文本向量 Q。

接着,我们将槽位标签进行嵌入,得到槽位嵌入 ES。由于每个位置可能有多个槽位标签,我们需要对槽位嵌入进行池化操作,这里我们采用了槽位注意力机制对多个槽位嵌入进行加权求和。

我们采用了缩放点积注意力(Scaled Dot-Product Attention)[2] 作为我们的槽位注意力机制,同时,在应用点积注意力机制之前,我们先对文本向量和槽位嵌入进行线性变换,将其映射到同一个维度的子空间。

经过槽位注意力之后,多个槽位嵌入被加权平均为一个槽位向量 S。


然后,我们使用融合门控机制对文本向量 Q 和槽位向量 S 进行融合,得到融合后的向量 F。这里的融合门控机制类似长短期记忆网络(Long Short-Term Memory, LSTM)中的门控机制。



融合后的向量 F 表示每个位置的文本信息和槽位信息,但是由于融合门控机制是在每个位置上进行的,因此,单个位置上的融合向量缺乏其他位置的槽位上下文信息。

为了对上下文信息进行编码,我们又使用了一个带残差连接和层归一化的多头注意力机制(Multi-Head Attention)[2] 编码融合向量 F,得到最终的输出向量O。

最后,我们取出第一个位置([CLS] 标记对应位置)的输出向量,拼接上文本长度特征,送入带 softmax 的线性分类器中,得到每个意图类别上的概率,进而预测出 Query 对应的意图类别标签。

在业务数据上的微调实验表明,融合了槽位特征的 BERT 意图识别模型比只使用文本信息的 BERT 模型能够实现更好的效果。

3.2 语音交互Query判不停

用户在语音输入过程中会有停顿、语句不完整的现象,经过 ASR 识别后,得到的 query 文本存在不完整的情况,会影响到后续的意图识别和槽位提取。因此在送入中台之前,需要经过判不停模块识别,对于不完整 query 返回给 ASR 继续接收输入,完整 query 才进入中台。

我们提出的语音交互 query 判不停模块,就是用于判断用户 query 是否完整的重要模块。判不停模块输入用户 query 文本,输出一个判不停标签,表明该 query 是否完整,其中‘incomplete’ 表示 query 不完整,‘normal’ 表示 query 完整,如下例所示。

  • Query文本:播放张杰的
  • 判不停标签:incomplete

判不停模型的主要难点在于线上用户 query 请求量大,对模型推理速度有比较严格的限制,因此普通的 BERT 模型无法满足判不停业务的线上性能需求。但是,能够满足性能需求的小模型由于结构过于简单,模型的准确度往往不如 BERT 模型。

因此,我们经过思考,采取了“集成学习+知识蒸馏”的判不停系统框架,先通过集成学习,集成 BERT 等业务效果好的模型,实现较高的准确度。再使用知识蒸馏的方法,将集成模型的知识迁移给 Albert Tiny 小模型 [3],从而在保证推理速度的基础上,大幅提升模型效果。

“集成学习+知识蒸馏”的判不停框架如图 5 所示。

▲ 图5. 集成学习+知识蒸馏判不停框架


判不停框架的第一步是集成学习。目的是通过融合多个模型,减缓过拟合的问题,提升集成模型的效果。首先,我们在判不停业务数据集上训练 BERT 模型等多个效果好的大模型,这些效果好的大模型称之为教师模型。

接着,对于每个教师模型,我们都使用它预测出每条数据对应的 logits,logits 本质上是 softmax 之前的 2 维向量,代表了教师模型在数据上的知识。

最后,对于每条数据,我们对多个教师模型预测的 logits 进行集成,得到的集成 logits 就对应了一个集多个教师模型优点于一身的集成模型,这样的集成模型具有比单个 BERT 教师模型更好的效果。

判不停框架的第二步是知识蒸馏。由于推理性能限制,集成模型无法直接应用于线上判不停业务。因此我们使用知识蒸馏 [4] 的方法,把集成模型的知识迁移给能满足线上性能需求的小模型 Albert Tiny 模型,这样的小模型也被称为学生模型。

蒸馏学生模型时,我们同时使用集成 logits 和真实标签训练学生模型,使得学生模型能够学到集成模型的知识,进一步提升学生模型的效果。具体来说,对于第 i 条训练数据,我们先使用 Albert Tiny 模型预测出该条数据对应的学生 logits,记为 z。

另外,该条数据对应的集成模型 logits 记为 t,对应的真实标签记为 y。我们使用真实标签 y 和学生 logits z 得到通常的交叉熵损失函数,同时,我们使用集成 logits t 和学生 logits z 得到带温度平滑的蒸馏交叉熵损失函数,最终的损失函数是两种损失函数的加权求和。


最终,经过“集成学习+知识蒸馏”的判不停框架得到的 Albert Tiny 小模型能够达到 BERT 单模型的效果,同时也能很好地满足线上的推理性能需求。

3.3 小米NLP平台多粒度分词


中文分词已经成为了众多 NLP 任务的基础需求,为下游任务提供基础分词服务。小米 NLP 平台(MiNLP 平台)也开发了中文分词功能,为公司内其他 NLP 相关业务提供中文分词服务支撑。

在实践中我们发现,不同业务对中文分词的粒度需求有所差异,短文本相关业务往往需要粒度较细的分词服务,而长文本相关业务则希望分词的粒度能够更粗一些。

针对不同业务对不同粒度分词的需求,我们开发了多粒度分词算法,能够支持粗/细两种粒度的中文分词服务。多粒度分词的示例如下:

  • 文本:这是一家移动互联网公司
  • 粗粒度分词:这/是/一家/移动互联网/公司
  • 细粒度分词:这/是/一/家/移动/互联网/公司

我们在开发基于 BERT 模型的多粒度分词算法时,发现如果分别在每个粒度分词的数据集上进行微调,则需要训练并部署多个不同粒度的 BERT 分词模型,总的模型资源消耗量与粒度的数量成线性相关。

同时,不同粒度的分词结果虽然有一些差异,但依然有着很大的共性,各自训练不同粒度的 BERT 分词模型不能充分利用这些共性知识来提升分词效果。

为了充分利用不同粒度分词的共性信息,并减少训练和部署成本,我们基于多任务学习的思路,提出了一种“基于 BERT 的统一多粒度分词模型” [5],用一个统一的 BERT 模型训练了支持多个粒度的中文分词器。

▲ 图6 基于BERT的统一多粒度分词模型


我们提出的统一多粒度分词模型如图 6 所示,其主要思想是:先在输入文本中加入一个特殊的粒度标记表示粒度信息,如 [fine] 表示细粒度,[coarse] 表示粗粒度。

然后把加入了粒度标记的文本字符送入 BERT 模型中,再经过一个带 softmax 的线性分类器,把每个位置的表示映射为 BMES 四个分词标签上的概率。

四个分词标签的含义分别是:B- 词的开始,M- 词的中间,E- 词的结束,S- 单独成词。如上面的文本得到的细粒度分词标签序列就是:

  • 细粒度分词标签:这/S 是/S 一/S 家/S 移/B 动/E 互/B 联/M 网/E 公/B 司/E

最后对整个文本序列的分词标签进行解码就得到了最终的分词结果。

我们提出的统一多粒度分词模型,不仅在公司内部的多粒度分词数据上取得了更好的效果,同时也在公开多标准分词数据集上取得了 SOTA(State-of-the-Art)的性能,实验结果可以参见参考文献 [5]


总结与思考


小米 AI 实验室 NLP 团队通过 BERT 模型在具体业务中的实战探索,使用特征融合、集成学习、知识蒸馏、多任务学习等深度学习技术,改造和增强了 BERT 预训练模型,并在对话系统意图识别、语音交互 Query 判不停、小米 NLP 平台多粒度分词等多个任务上取得了良好的效果。


同时,我们对如何进一步应用 BERT 模型提出一些简单的想法,留待于未来的探索和研究。首先,如何将非文本特征尤其是外部知识特征更有效地融入 BERT 模型之中,是一个值得深入研究的问题。

另外,有些具体业务对线上推理性能有着严格的要求,这种场景下 BERT 模型往往不能直接进行应用,我们需要进一步探究大模型到小模型的知识迁移或模型压缩,在保证推理性能的基础之上提升模型效果。

最后,公司内部的各项业务往往各自为战,在使用 BERT 模型时存在一些重复工作,并且不能很好地利用多个任务的共性信息,在多任务学习的基础上,打造一个各业务充分共享的 BERT 模型平台,服务并助益多项业务需求,是我们下一步需要努力的方向。

参考文献


[1] Devlin. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. NAACL. 2019.

[2] Vaswani. Attention is all you need. NIPS. 2017.

[3] Lan. ALBERT: A Lite BERT for Self-supervised Learning of Language Representations. ICLR. 2020.

[4] Hinton. Distilling the Knowledge in a Neural Network. NIPS. 2014.

[5] Ke. Unified Multi-Criteria Chinese Word Segmentation with BERT. 2020.




点击以下标题查看更多往期内容: 




#投 稿 通 道#

 让你的论文被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。


📝 来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向) 

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接 

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志


📬 投稿邮箱:

• 投稿邮箱:hr@paperweekly.site 

• 所有文章配图,请单独在附件中发送 

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存