查看原文
其他

Q:把三元组装冰箱里需要几步?A:一步!

宁金忠 PaperWeekly 2022-07-10


©PaperWeekly 原创 · 作者 | 宁金忠

单位 | 大连理工大学

研究方向 | 信息抽取




论文标题:

Relational Triple Extraction: One Step is Enough

论文来源:

IJCAI 2022

论文链接:

https://arxiv.org/abs/2205.05270




Motivation
本文的研究任务为关系三元组抽取任务。已有的实体关系三元组抽取方法可以分为三大类:1)基于序列标注的方法(CASREL、PRGC 等);2)基于填表的方法(TPLinker 等);3)基于生成的方法(CopyRE,CopyMTL)等。
已有的方法需要首先确定头实体和尾实体的范围,然后将其组合成三元组。但是这样的方式使得模型面临误差累计的问题。




Contribution

作者首次提出把关系三元组抽取任务看做一个候选实体构成的 bipartite graph 的连接问题。这一方式避免了三元组抽取过程中的误差传播问题。

作者提出的 DirectRel 和与其属于同期工作的 OneRel 率先提出了 one-step 抽取关系三元组的思想。
文中的实验结果表明了 DirectRel 在 NYT,WebNLG,NYT,WebNLG 四个数据集上取得了教好的结果。




Method


3.1 Candidate Entities Generation

在数据处理阶段,作者使用枚举的方式生成所有长度小于 的候选实体。例如,当 的时候,对于句子"Beijing is the capital of China",其候选实体组成的集合为:{ “Beijing”, “Beijing is”, “is”, “is the”, “the”, “the Capital”, “Capital”, “Capital of ”, “of ”, “of China”, “China”}。
这样的处理方式会带来两个问题:1)使标签空间变的更稀疏,从而使模型更加倾向于标注出负例;2)该方法会显著增加模型训练时的运算开销。
为了解决上述两个问题,作者提出了从候选实体集合中随机抽选出 个负例实体以及所有的 ground truth 实体组成 。然后使用 中的实体来训练模型。

3.2 Bipartite Graph Linking

对于一个给定的句子,作者使用 BERT 得到句子的表示:


对于每个候选实体,使用 start token 和 end token 的向量取平均作为每个候选实体的表示:


作者使用 head project 和 tail project 两个线性变换,把候选实体的表示映射到头尾实体的表示空间中:


最后,对于每一个关系 ,作者通过预测候选实体对之间是否有连接来确定两个实体是够构成一个有效三元组:
显然,本文的方法可以有效应对嵌套实体的情况。并且对于 EntityPairOverlap (EPO),SingleEntityOverlap (SEO),HeadTailOverlap (HTO) 等情况均可有效解决。
3.3 Objective Function

作者采用 BCE loss 来作为损失函数训练模型:



Experiments
4.1 Main Results


从表 2 中可以看出,DirectRel 达到在四个数据集上均达到的 SOTA 结果。和同期的 OneRel 相比,DirectRel 在 NYT 和 NYT 上依然达到 SOTA 结果。

4.2 Detailed Results on Complex Scenarios


从表 3 中,作者根据实体的嵌套情况和句子中包含实体的长度,把测试集划分成了 18 个子测试集。DirectRel 在 18 个子测试集的 15 个上取得了最佳的性能。

4.3 Parameter Analysis


本章节作者主要分析了负采样数 对模型泛化性能和收敛速度的影响。可以看出随着负采样数的增加,模型的训练时间和 GPU 显存占用均明显提升。但是 增加到一定程度,模型的性能出现一定程度的下降。这说明给模型设置一定的负采样数具有积极意义。




总结
相比 TPLinker 和 OneRel 中建模头尾实体的 token 维度的关联关系的方法,DirectRel 采用候选实体之间连接建模的方法,确实可以实现一步到位 decoding 出三元组。虽然作者在模型训练时采用了负采样的方式,显著降低了模型训练的运算开销。但是在模型推理过程中,所有候选实体之间的连接预测可能会导致运算量显著提升。

参考文献


[1] A Novel Cascade Binary Tagging Framework for Relational Triple Extraction(ACL-2020)

[2] PRGC: Potential Relation and Global Correspondence Based Joint Relational Triple Extraction(ACL-2021)

[3] TPLinker: Single-stage joint extraction of entities and relations through token pair linking(COLING-2020)

[4] Extracting relational facts by an end-to-end neural model with copy mechanism(ACL-2018)

[5] Copymtl: Copy mechanism for joint extraction of entities and relations with multi-task learning(AAAI-2020)

[6] OneRel:Joint Entity and Relation Extraction with One Module in One Step(AAAI-2022)



更多阅读




#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编




🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



·

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存