COLING 2022 | 如何增强文本生成的信息量和相关性?基于语境提示的生成方法Context-Tuning
本文分享我们小组在会议中发表的长文(oral),旨在使用语境调优(Context-Tuning)技术,增强生成文本的信息量和相关性。文章也同步发布在AI Box知乎专栏(知乎搜索 AI Box专栏),欢迎大家在知乎专栏的文章下方评论留言,交流探讨!
论文链接:Context-Tuning: Learning Contextualized Prompts for Natural Language Generation
开源代码:https://github.com/RUCAIBox/Context-Tuning
COLING 2022即将于10月12日在韩国庆州召开,这次和大家分享我们小组在会议中发表的长文(oral),旨在使用语境调优(Context-Tuning)技术,增强生成文本的信息量和相关性。
一、引言
自然语言生成(又称为文本生成)旨在基于输入数据用人类语言生成合理且可读的文本。随着预训练语言模型的发展,GPT-3,BART等模型逐渐成为了生成任务的主流模型。近年来,为了利用预训练阶段编码的丰富知识,提示学习成为了一个简单而强大的方法。
这篇工作主要聚焦于开放式文本生成,例如故事生成和评论生成。在这种场景下,输入仅包含有限的信息,而任务目标是要生成富含信息量且与主题相关的长文本。例如下表中的例子,我们需要写一段关于“live-action”和“animation”的评论,这需要对这两个主题的背景信息有深入的了解。现有的提示学习方法,会在输入前加上人工的离散提示(例如表中的“Write a story about:”),或者在输入前加上可学习的连续型提示。但是这些提示是静态的,更多是包含任务相关的信息,但与输入无关,很难依靠他们去生成富含信息量的文本。
同时在长文本生成中,一个常见的问题是“跑题”,即生成的文本逐渐和主题无关。为了解决以上两个问题,我们分别提出了语境提示(contextualized prompts)和连续反向提示(continuous inverse prompting),来增强生成文本的信息量和相关性。
二、语境调优(Context-Tuning)
本文提出了一种创新的连续提示方法,称语境调优,用于微调预训练模型来进行自然语言生成,我们的核心贡献有三点:①我们首次提出了输入相关的提示——语境提示,抽取预训练模型中的知识作为提示来丰富生成文本的信息量。②我们使用了连续反向提示,最大化基于输出生成输入的概率,来增强生成文本的相关性。③我们使用了一种轻量化的语境调优方法,在只微调0.12%参数的情况下保持98%的性能。
1.语境提示(contextualized prompts)
通用文本生成模型:BART,GPT-2和T5; 专为故事生成设计的方法:HINT; 轻量化方法:Prefix-tuning和Prompt tuning
我们提出“语境提示”,增强生成文本的信息量; 我们使用“连续反向提示”,增强生成文本的相关性; 我们提出轻量化微调语境调优,仅微调0.12%的参数却能保持98%的性能。
更多推荐
NeurlPS 2022 | 自然语言处理相关论文分类整理
ACL2023赶会必备,拿来即用之Experiments
预训练模型哪家强?提示迁移学习为文本生成提供新思路——NAACL 2022论文解读