其他
【源头活水】[Meta-Learning]对Reptile的深度解析
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。
地址:https://zhuanlan.zhihu.com/p/239929601
01
02
# Main loop
for meta_iteration in tqdm.trange(args.start_meta_iteration, args.meta_iterations):
# Update learning rate
meta_lr = args.meta_lr * (1. - meta_iteration/float(args.meta_iterations))
set_learning_rate(meta_optimizer, meta_lr)
# Clone model
net = meta_net.clone()
optimizer = get_optimizer(net, state)
# load state of base optimizer?
# Sample base task from Meta-Train
train = meta_train.get_random_task(args.classes, args.train_shots or args.shots)
train_iter = make_infinite(DataLoader(train, args.batch, shuffle=True))
# Update fast net
# do the first batch update steps
# the grads of para are from grad to grad-p1-p2-...-pn
loss = do_learning(net, optimizer, train_iter, args.iterations)
state = optimizer.state_dict() # save optimizer state
# Update slow net
# update the meta_net's grad parameter to meta_net.param - clone_net.param
# correspond to p1+p2+p3+...+pn
meta_net.point_grad_to(net)
meta_optimizer.step()
03
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“源头活水”历史文章
用于文本分类的循环卷积神经网络
Meta-Transfer Learning for Few-Shot Learning
PointPillars论文和代码解析
ICLR'21 | GNN联邦学习的新基准
关于talking face generation两篇论文解读
一个具有隐私保护学习的图联邦架构
图上的边信息怎么办:GNNs与edge feature
一行核心代码提升无监督/自监督模型特征表达
车辆意图预测中一种基于因果时间序列的域泛化方法
因果关系检测提高强化学习效率
基于GNN的层次人脸聚类
CLUES:用于NLU的少样本学习评估
全新视觉 Transformer:高分辨率图像复原新SOTA——Restormer
GRI:通用强化模仿学习,用于视觉自动驾驶
更多源头活水专栏文章,
请点击文章底部“阅读原文”查看
分享、在看,给个三连击呗!