学界 | ICLR2017公布论文接收名单,匿名评审惹争议
机器之心整理
编辑:微胖
2017 ICLR 将于 4 月 26-27 日在法国东南部港口城市土伦举行。近日,大会接收论文名单公布。在 507 篇提交论文中,有 15 篇论文应邀进行演讲,poster 181 篇,应邀参加研讨会的有 48 篇。其中,FAIR 合著被接收的论文共 14 篇。
全部结果:https://openreview.net/forum?id=BkjLkSqxg
图片来自 Nando 推特
这 15 篇应邀演讲的论文分别是:
Making Neural Programming Architectures Generalize via Recursion
PDF:https://openreview.net/forum?id=BkbY4psgg
Jonathon Cai, Richard Shin, Dawn Song
End-to-end Optimized Image Compression
PDFhttps://openreview.net/pdf?id=rJxdQ3jeg
Johannes Ballé, Valero Laparra, Eero P. Simoncelli
Optimization as a Model for Few-Shot Learning
https://openreview.net/pdf?id=rJY0-Kcll
Sachin Ravi, Hugo Larochelle
Learning End-to-End Goal-Oriented Dialog
https://openreview.net/pdf?id=S1Bb3D5gg
Antoine Bordes, Y-Lan Boureau, Jason Weston
Towards Principled Methods for Training Generative Adversarial Networks
https://openreview.net/pdf?id=Hk4_qw5xe
Martin Arjovsky, Leon Bottou
Reinforcement Learning with Unsupervised Auxiliary Tasks
https://openreview.net/pdf?id=SJ6yPD5xg
Max Jaderberg, Volodymyr Mnih, Wojciech Marian Czarnecki, Tom Schaul, Joel Z Leibo, David Silver, Koray Kavukcuoglu
Multi-Agent Cooperation and the Emergence of (Natural) Language
https://openreview.net/forum?id=Hk8N3Sclg
Angeliki Lazaridou, Alexander Peysakhovich, Marco Baroni
Understanding deep learning requires rethinking generalization
https://openreview.net/forum?id=Sy8gdB9xx
Chiyuan Zhang, Samy Bengio, Moritz Hardt, Benjamin Recht, Oriol Vinyals
Neural Architecture Search with Reinforcement Learning
https://openreview.net/pdf?id=r1Ue8Hcxg
Barret Zoph, Quoc Le
Q-Prop: Sample-Efficient Policy Gradient with An Off-Policy Critic
https://openreview.net/forum?id=SJ3rcZcxl
Shixiang Gu, Timothy Lillicrap, Zoubin Ghahramani, Richard E. Turner, Sergey Levine
Learning to Act by Predicting the Future
https://openreview.net/forum?id=rJLS7qKe
Alexey Dosovitskiy, Vladlen Koltun
On Large-Batch Training for Deep Learning: Generalization Gap and Sharp Minima
https://openreview.net/forum?id=H1oyRlYgg
Nitish Shirish Keskar, Dheevatsa Mudigere, Jorge Nocedal, Mikhail Smelyanskiy, Ping Tak Peter Tang
Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data
https://openreview.net/pdf?id=HkwoSDPgg
Nicolas Papernot, Martín Abadi, Úlfar Erlingsson, Ian Goodfellow, Kunal Talwar
Amortised MAP Inference for Image Super-resolution
https://openreview.net/forum?id=S1RP6GLle
Casper Kaae Sønderby, Jose Caballero, Lucas Theis, Wenzhe Shi, Ferenc Huszár
Learning Graphical State Transitions
https://openreview.net/forum?id=HJ0NvFzxl
Daniel D. Johnson
另外,Nando 在推特上公开表示了对以下几篇论文的赞赏和喜爱。
论文:Third Person Imitation Learning,
作者: Bradly C Stadie, Pieter Abbeel, Ilya Sutskever
论文:Modular Multitask Reinforcement Learning with Policy Sketches
作者:Jacob Andreas, Dan Klein, Sergey Levine
论文:Optimization as a Model for Few-Shot Learning
作者:Sachin Ravi, Hugo Larochelle
论文:Making Neural Programming Architectures Generalize via Recursion(被 Nando 形容为突破)
作者:Jonathon Cai, Richard Shin, Dawn Song
不过,有趣的是,2016 年刷爆各路媒体的 LipNet 论文却出人意料地遭拒。
来自牛津大学、Google DeepMind 和加拿大高等研究院(CIFAR)的研究人员发表了一篇具有重要价值的论文,提出了 LipNet——一种可以将可变长度的视频序列映射成文本的模型,其使用了时空卷积、一个 LSTM 循环网络和联结主义的时间分类损失(connectionist temporal classification loss)。它是第一个将深度学习应用于模型的端到端学习的模型,可以将说话者的嘴唇的图像帧序列映射到整个句子上。这个端到端的模型在预测句子前不再需要将视频拆分成词。在 GRID 语料库上,LipNet 实现了 93.4% 的准确度,超过了经验丰富的人类唇读者和之前的 79.6% 的最佳准确度, 将自动唇读技术的前沿水平推进到了前所未有的高度。在不久的将来,这一视频识别应用会非常有用。——机器之心报道(重磅论文 | 如何通过机器学习解读唇语?DeepMind 要通过 LipNet 帮助机器「看」懂别人说的话 )
据悉,Nando de Freitas 和匿名评审产生了激烈冲突,评审认为,论文并无洞见和让人惊艳的结果。但是,Nando 感觉受到了羞辱,指责评审论点根本是废话,也不懂深度学习,评审建议毫无必要。Nando 认为,匿名评论不合理,但是,评审认为这位大牛有以大压小的嫌疑。最终,会议 AC 坚决站在了评审这边,拒了这篇论文,连研讨会都没有收。
机器之心分析师个人认为:
我也觉得 LipNet 算法方面创新有限,demo 视频也没有给人惊艳感。
LipNet 也是挂在 zisserman 名下的文章,它的实验结果很优秀,但是 ICLR 好像有一个更关注算法创新和理论推进这种高大上的初衷,所以 , LipNet 这样的文章如果是几年前深度学习还没那么热的时候应该是会被录取的,因为那时候,你只要用深度学习又征服了一个新的 cv 或者其他领域的一个课题或应用,就有可能发到相关的顶级会议,可如今深度学习文章已经满大街了,再拿这种征服一个课题上的几个数据集,或者发布一个大规模数据集的方式来发 ICLR 就略显草率了,也不像 DeepMind 的逼格,纯属个人拙见。
Github 上也有网友表示,在读了许多论文的评审建议后,发现 LipNet 的评审建议最富洞见,也最有趣,当然,也极富争议。这既暴露了某些自负,也暴露了学术大牛和匿名评审之间的冲突,这至少表明,评审程序还是起作用的,没有像媒体一样跟风炒作。
©本文为机器之心原创,转载请联系本公众号获得授权。
✄------------------------------------------------
加入机器之心(全职记者/实习生):hr@jiqizhixin.com
投稿或寻求报道:editor@jiqizhixin.com
广告&商务合作:bd@jiqizhixin.com