快速适应性很重要,但不是元学习的全部目标
作者 | Khurram Javed, Hengshuai Yao, Martha White
译者 | Monanfei
出品 | AI科技大本营(ID:rgznai100)
实践证明,基于梯度的元学习在学习模型初始化、表示形式和更新规则方面非常有效,该模型允许从少量样本中进行快速适应。这些方法背后的核心思想是使用快速适应和泛化(两个二阶指标)作为元训练数据集上的训练信号。但是,其他可能的二阶指标很少被关注。在本文中,研究者提出了一种不同的训练信号——对灾难性干扰的鲁棒性。与仅通过快速适应性最大化学习的表示相比,通过引导干扰最小化学习的表示更有利于增量学习。
以下为论文内容详细介绍,AI科技大本营(ID:rgznai100)编译:
背景介绍
当在大型数据集上训练和使用 IID 采样进行训练直至收敛时,人工神经网络被证明是非常成功的函数逼近器。但是如果没有大的数据集和 IID 采样,他们很容易产生过拟合和灾难性的遗忘。最近的研究表明,基于梯度的元学习能够成功地从元数据集中提取问题的高级平稳结构,从而可以在不过度拟合的情况下进行小样本泛化,它也证明可以减轻人们对更好的持续学习的遗忘。
基于梯度的元学习器具有两个重要组成部分。(1)元目标:算法在元训练期间最小化的目标函数;(2)元参数:元训练期间更新的参数,以最小化所选的元目标。这种元学习框架最流行的实现之一是 MAML。MAML 将最大化快速适应和泛化作为元目标,通过学习模型初始化(一组用于初始化神经网络参数的权重),解决了少样本学习的问题。这个想法是对固定任务结构进行编码,这些结构来自用于初始化模型的固定任务的权重分布,以使得从该初始化开始的常规SGD 更新对于少样本学习有效。
尽管 MAML 为元目标和元参数所做的选择是合理的,但我们还有许多其他选择。例如,除了学习模型初始化外,我们还可以学习表示形式、学习率、更新规则、因果结构甚至是完整的学习算法。类似地,除了使用少样本学习目标,我们还可以定义一个将其他二阶指标最小化的元目标。
本文在元目标中将鲁棒性与干扰相结合,研究该方式是否会改善元学习目标上增量学习基准的性能。最近,Javed 和 White 提出了一个目标——MRCL,该目标通过最大程度地减少干扰来学习表示,并表明这种表示极大地提高了增量学习基准上的性能。但是,他们没有与通过少样本学习目标获得的表示形式进行比较。
另一方面,Nagabandi 发现在元训练时并入增量学习的影响(例如干扰)并没有在元测试时提高他们的持续学习基准的性能。那么,对于有效的增量学习而言,Javed 和 White 引入的新目标是否必要?对于元学习无干扰表示,是否仅使用快速适应就足够了?
问题表述
为了比较这两个目标,我们采用了在线持续学习预测任务(CLP):这是一个既需要快速适应和对干扰鲁棒性的任务。该任务定义如下:
比较两个目标
使用 OMNIGLOT 的 CLP 任务
元训练
元测试
讨论
MRCL 和 MAML 区别背后的直觉
为什么要学习与网络初始化相反的编码器
总结
◆
精彩推荐
◆
2019 中国大数据技术大会(BDTC)再度来袭!豪华主席阵容及百位技术专家齐聚,15 场精选专题技术和行业论坛,超强干货+技术剖析+行业实践立体解读,深入解析热门技术在行业中的实践落地。
即日起,限量 5 折票开售,数量有限,扫码购买,先到先得!
推荐阅读
@程序员:Python 3.8正式发布,重要新功能都在这里
AutoML很火,过度吹捧的结果?
AI大佬“互怼”:Bengio和Gary Marcus隔空对谈深度学习发展现状
Python脚本BUG引发学界震动,影响有多大?
太鸡冻了!我用Python偷偷查到暗恋女生的名字
苹果 5G 芯片“难产”
如果把线程当作一个人来对待,秒懂
C 语言这么厉害,它自身是用什么语言写的?
你点的每个“在看”,我都认真当成了AI