百度提出ERNIE,多项中文NLP任务表现出色(已开源)
整理 | Jane
出品 | AI科技大本营
【导语】近日,百度提出知识增强的语义表示模型 ERNIE(Enhanced Representation from kNowledge IntEgration),通过对词、实体等语义单元的掩码,使得模型学习完整概念的语义表示。在语言推断、语义相似度、命名实体识别、情感分析、问答匹配等多项中文 NLP 任务上表现出色,有些甚至优于 BERT 在处理同类中文任务的结果,接下来营长就与大家一起探讨一款不同于 BERT 建模思想的 ERNIE 模型。目前,该模型代码已开源,感兴趣的正好可以跑跑模型,看看效果。
开源传送门:
https://github.com/PaddlePaddle/LARK/tree/develop/ERNIE
前言
近年来,无监督文本的深度神经网络预训练模型提升了各个 NLP 任务的效果。早期的工作聚焦于上下文无关的词向量建模,而之后提出的 Cove,ELMo,GPT 等模型,构建了语句级的语义表示。Google 近期提出的 BERT模型,通过预测屏蔽的词,利用 Transformer 的多层 self-attention 双向建模能力,取得了更好的效果。
而无论是稍早提出的 Cove、Elmo、GPT, 还是能力更强的 BERT 模型,其建模对象主要聚焦在原始语言信号上,较少利用语义知识单元建模。这个问题在中文方面尤为明显,例如,BERT 在处理中文语言时,通过预测汉字进行建模,模型很难学出更大语义单元的完整语义表示。例如,对于乒[mask]球,清明上[mask]图,[mask]颜六色这些词,BERT模型通过字的搭配,很容易推测出掩码的字信息,但没有显式地对语义概念单元(如“乒乓球”、“清明上河图”)以及其对应的语义关系进行建模。
设想如果能够让模型学习到海量文本中蕴含的潜在知识,就可以进一步提升各个 NLP 任务效果。因此百度提出了基于知识增强的 ERNIE 模型,通过建模大量数据中的实体概念等先验语义知识,学习真实世界的语义关系。
方法与目的
增强模型语义表示能力:直接对先验语义知识单元进行建模,并引入多源数据知识。具体来说,相较于 BERT 学习原始语言信号,ERNIE 模型通过对词、实体等语义单元的掩码,使得模型学习完整概念的语义表示。
举个例子:
Learned by BERT :哈 [mask] 滨是 [mask] 龙江的省会,[mask] 际冰 [mask] 文化名城。
Learned by ERNIE:[mask] [mask] [mask] 是黑龙江的省会,国际 [mask] [mask] 文化名城。
在 BERT 模型中,通过『哈』与『滨』的局部共现,即可判断出『尔』字,模型没有学习与『哈尔滨』相关的知识。而 ERNIE 通过学习词与实体的表达,使模型能够建模出『哈尔滨』与『黑龙江』的关系,学到『哈尔滨』是 『黑龙江』的省会以及『哈尔滨』是个冰雪城市。
ERNIE 模型本身保持基于字特征输入建模,使得模型在应用时不需要依赖其他信息,其通用性和可扩展性更强。相对词特征输入模型,字特征可建模字的组合语义,例如建模红色,绿色,蓝色等表示颜色的词语时,通过相同字的语义组合学到词之间的语义关系。
此外, ERNIE 的训练语料引入了多源数据知识。除了百科类文章建模,还对新闻资讯类、论坛对话类数据进行学习,这里重点介绍下论坛对话建模。对话数据的学习是语义表示的重要途径,往往相同回复对应的 Query 语义相似。基于该假设,使用 DLM(Dialogue Language Model)建模 Query-Response 对话结构,输入为对话 Pair 对,引入 Dialogue Embedding 标识对话的角色,利用 Dialogue Response Loss学习对话的隐式关系,这个建模方法也提升了一定的模型语义表示能力。
ERNIE 对实体概念知识的学习以及训练语料的扩展,增强了模型语义表示能力。为验证ERNIE 的知识学习能力,利用几道有趣的填空题对模型进行了考察,例如:
ERNIE预测
|
BERT预测
|
答案
| |
2006年9月, 与张柏芝结婚,两人婚后育有两儿子——大儿子Lucas谢振轩,小儿子Quintus谢振南;2012年5月,二人离婚。
|
谢霆锋
|
谢振轩
|
谢霆锋
|
戊戌变法,又称百日维新,是 、梁启超等维新派人士通过光绪帝进行的一场资产阶级改良。
|
康有为
|
孙世昌
|
康有为
|
高血糖则是由于 分泌缺陷或其生物作用受损,或两者兼有引起。糖尿病时长期存在的高血糖,导致各种组织,特别是眼、肾、心脏、血管、神经的慢性损害、功能障碍。
|
胰岛素
|
糖糖内
|
胰岛素
|
是中国神魔小说的经典之作,达到了古代长篇浪漫主义小说的巅峰,与《三国演义》《水浒传》《红楼梦》并称为中国古典四大名著。
|
西游记
|
《小》
|
西游记
|
相对论是关于时空和引力的理论,主要由 创立。
|
爱因斯坦
|
卡尔斯所
|
爱因斯坦
|
向日葵,因花序随 转动而得名。
|
太阳
|
日阳
|
太阳
|
是太阳系八大行星中体积最大、自转最快的行星,从内向外的第五颗行星。它的质量为太阳的千分之一,是太阳系中其它七大行星质量总和的2.5倍。
|
木星
|
它星
|
木星
|
地球表面积5.1亿平方公里,其中71%为 ,29%为陆地,在太空上看地球呈蓝色。
|
海洋
|
海空
|
海洋
|
实验将段落中的实体知识去掉,让模型推理其答案,可以看到 ERNIE 在基于上下文知识推理能力上表现更好。并在自然语言推断任务上进一步实验,探究其知识推理能力,实验结果显示 ERNIE 模型在语言推断任务结果比 BERT 高 1.8%。
XNLI 是由 Facebook 和纽约大学的研究者联合构建,旨在评测模型多语言的句子理解能力。目标是判断两个句子的关系(矛盾、中立、蕴含)。
开发集准确率 | 测试集准确率 | |||
均值 | 方差 | 均值 | 方差 | |
BERT | 78.1% | 0.0038 | 77.2% | 0.0026 |
ERNIE | 79.9%(+1.8%) | 0.0041 | 78.4%(+1.2%) | 0.0040 |
实验结果
在多个公开的中文数据集上的实验结果显示,在多项中文 NLP 任务中,ERNIE 模型的结果都能与 BERT 持平或有所提升。
1、语义相似度任务 LCQMC
LCQMC是哈尔滨工业大学在自然语言处理国际顶会 COLING 2018 构建的问题语义匹配数据集,其目标是判断两个问题的语义是否相同。
开发集准确率 | 测试集准确率 | |||
均值 | 方差 | 均值 | 方差 | |
BERT | 88.8% | 0.0029 | 87.0% | 0.0060 |
ERNIE | 89.7%(+0.9%) | 0.0021 | 87.4%(+0.4%) | 0.0019 |
2、情感分析任务 ChnSentiCorp
ChnSentiCorp 是中文情感分析数据集,其目标是判断一段话的情感态度。
开发集准确率 | 测试集准确率 | |||
均值 | 方差 | 均值 | 方差 | |
BERT | 94.6% | 0.0027 | 94.3% | 0.0058 |
ERNIE | 95.2%(+0.6%) | 0.0012 | 95.4%(+1.1%) | 0.0044 |
3、命名实体识别任务 MSRA-NER
MSRA-NER数据集由微软亚研院发布,其目标是命名实体识别,是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名等。
开发集F1 | 测试集F1 | |||
均值 | 方差 | 均值 | 方差 | |
BERT | 94.0% | 0.0024 | 92.6% | 0.0024 |
ERNIE | 95.0%(+1.0%) | 0.0027 | 93.8%(+1.2%) | 0.0031 |
4、检索式问答匹配任务 nlpcc-dbqa
nlpcc-dbqa 是由国际自然语言处理和中文计算会议NLPCC于2016年举办的评测任务,其目标是选择能够回答问题的答案。
开发集MRR | 测试集MRR | |||
均值 | 方差 | 均值 | 方差 | |
BERT | 94.7% | 0.0022 | 94.6% | 0.0014 |
ERNIE | 95.0%(+0.3%) | 0.0011 | 95.1%(+0.5%) | 0.0011 |
开发集F1 | 测试集F1 | |||
均值 | 方差 | 均值 | 方差 | |
BERT | 80.7% | 0.0158 | 80.8% | 0.0158 |
ERNIE | 82.3%(+1.6%) | 0.0103 | 82.7%(+1.9%) | 0.0136 |
结论
研究团队表示,ERNIE 模型将被应用于多种产品和场景,进一步提升用户体验。未来也将在基于知识融合的预训练模型上进一步深入研究。例如使用句法分析或利用其他任务的弱监督信号进行建模。后续也会将该思路推广到其他语言,在其他语言上进一步验证。
(本文为AI科技大本营整理文章,转载请微信联系 1092722531)
◆
精彩推荐
◆
4月13-14日,CSDN将在北京主办“Python开发者日(2019)”,汇聚十余位来自阿里巴巴、IBM、英伟达等国内外一线科技公司的Python技术专家,还有数百位来自各行业领域的Python开发者,共同探讨Python在不同场景下的的应用优势和实战经验。即刻扫码抢购早鸟票,限量发售!
推荐荐阅读:
❤点击“阅读原文”,查看历史精彩文章。