AAAI 2018 | 《Long Text Generation Training with LeakGAN》阅读笔记
来源:学习ML的皮皮虾
https://zhuanlan.zhihu.com/p/35555221
论文链接:Long Text Generation via Adversarial Training with Leaked Information
代码链接:github.com/CR-Gjx/LeakG
解决问题
自动生成连贯的和语义上有意义的长文本
贡献
本文中提出了一种称为LeakGAN的新算法框架,通过对抗训练生成长文本。通过泄漏由判别器提取的特征作为逐步引导信号,以指导生成器更好地生成长文本,同时借鉴分层强化学习从判别器向生成器提供更丰富的信息。
LeakGAN解决了先前GAN解决方案中标量奖励信号的非信息性和稀疏性问题。在包含长,中,短文本的生成数据和实际数据的大量实验中,LeakGAN的性能比以前的解决方案有显著的提高,且在生成更长的句子时可以获得更高的性能收益。
先前方案存在的问题
生成对抗网络(GAN)使用判决性模型来指导生成模型的训练作为强化学习策略,这已经在文本生成中有很好的结果。
但是,来自判别器D的标量指导信号是稀疏的,只有在生成完整文本后才可用,且在生成过程中缺少关于文本结构的中间信息。因此,当生成的文本样本的长度很长时,效果不佳。
创新点
利用GAN中D的特征(softmax前一层的网络输出),指导G中MANAGER模块的训练,使指导信号更有信息性;使用分层生成器结构,将整个生成任务分解为各种子任务,缓解指导信号的稀疏性问题。
模型
分层生成器G由一个高层次的MANAGER模块和一个低层次的WORKER模块组成, G通过MANAGER模块将D泄露的信息整合到所有生成步骤中,该模块利用生成单词的提取特征并输出一个潜在向量来指导WORKER模块进行下一个单词的生成。
(1)MANAGER是一个长短时记忆模型(LSTM),担任mediator。在每一步中,它都会接收D的高级特征表示,例如CNN的特征图,并用它来生成WORKER模块的指导目标。
(2)考虑到MANAGER生成的目标嵌入,WORKER首先用另一个LSTM编码当前生成的词,然后结合LSTM的输出和目标嵌入来进行当前状态下的最终动作。
因此,来自D的指导信号不仅在最后可用于G的标量奖励信号,而且在生成过程中可用于目标嵌入向量,以指导G如何得到改进。
1、符号
2、用判别器D的泄漏特征作为指导信号
典型的model-free强化学习的奖励函数是黑盒子,本模型的对抗文本生成使用
其中,
对于给定的
3、生成器G的分层结构
在生成过程中的每个步骤t中,为了利用来自
4、生成过程
MANAGER和WORKER模块都从全零隐藏状态开始,分别表示为
为了结合由MANAGER产生的goal,对最新的c个goal进行求和并执行线性变换
给定目标嵌入向量
其中
5、G的训练(使用来自
的指导信号训练MANAGER和WORKER)
使用策略梯度算法(如REINFORCE)以端对端的方式训练
其中
使用REINFORCE算法对WORKER进行训练以最大化奖励,这可以通过对状态
在对抗训练之前,需要训练
其中
在训练过程中,生成器Gθ和判别器Dφ交替训练。在生成器中,MANAGER
实验
(1)生成数据库:用10,000个长度分别为20和40的序列作为生成模型的训练集S。
(2)GAN设置:对于判别器D,选择CNN作为特征提取器和二元分类器。文本的特征是一个1,720维向量。对于生成器G,采用LSTM作为MANAGER和WORKER的体系结构来捕获序列上下文信息。 MANAGER使用CNN提取的特征映射生成16维目标嵌入特征向量
(3)模型比较:用MLE训练的LSTM,SeqGAN,RankGAN,LeakGan
(4)评估指标:生成数据实验采用负对数似然(NLL)指标。实际数据实验采用BLEU统计数据和图灵测试中的人类评分
生成数据实验
(i)在预训练阶段,与其他模型相比,LeakGAN已经显示出可观察的性能优势,这表明所提出的分层体系结构本身带来了改进。
(ii)在对抗训练阶段,LeakGAN显示出更好的收敛速度,它探索的局部最小值明显优于先前的结果。结果证明信息泄露框架和分层RL架构在生成短文本和长文本方面的有效性。
长文本生成:EMNLP2017 WMT新闻
选择EMNLP2017 WMT4数据集作为长文本语料库。新闻数据集有5,742个单词和397,726个句子。随机抽取200,000个句子作为训练集,10,000个句子作为测试集。使用BLEU-(2至5)分数作为评估指标。
在所有评价指标中,LeakGAN与基线模型相比显示出显著的性能增益。连续较高的BLEU分数表明LeakGAN生成的句子在局部特征中具有高质量以模仿真实文本。
中等文本生成:COCO图像标题
选择COCO图像标题数据集作为中等文本语料库,该数据集包含许多图像描述对。
COCO数据集上的BLEU得分结果表明LeakGAN在中等长度文本生成任务中的表现明显优于基线模型。
短文本的生成:中国诗歌
为了评估LeakGAN在短文本生成中的表现,选择了中国诗歌数据集。该数据集由4行5字的诗组成,使用BLEU-2分数作为评估指标。
结果表明,LeakGAN成功地处理了短文本生成任务。
长文本生成的性能鲁棒性
EMNLP2017 WMT新闻数据的结果如图3所示。曲线表明,当生成的句子更长时,LeakGAN会在基线上产生更大的性能增益。这一事实支持了我们声称LeakGAN是长文本的强大框架。
未来工作
未来希望计划通过提供更多特定于任务的指导信息,将LeakGAN应用于更多自然语言处理应用程序中。 此外,提高判别器检查整个句子全局一致性的能力是一个有希望的方向。
*推荐文章*
《DA Sequence Labeling using Hierarchical encoder with CRF》阅读笔记
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots