正文
-
作者:Kazuma Hashimoto, Caiming Xiong, Yoshimasa Tsuruoka, Richard Socher
-
地址:https://openreview.net/forum?id=SJZAb5cel
说明:这是一篇真正新颖的论文,给出了一种逐步生长(grow)神经网络的方法。这篇论文居然被拒了,真是让人惊讶!这篇论文为什么很重要呢?因为其表明了网络可以如何通过迁移学习(transfer learning)和域适应(domain adaptation)的方式进行开发。目前还没有多少论文在这个领域探索。
2. 分层的记忆网络(Hierarchical Memory Networks)
-
作者:Sarath Chandar, Sungjin Ahn, Hugo Larochelle, Pascal Vincent, Gerald Tesauro, Yoshua Bengio
-
地址:https://openreview.net/forum?id=BJ0Ee8cxx
说明:这也是一篇关于 NLP 的论文。瞧瞧其作者名单,这么多明星研究者的论文居然也被拒了,真是吓人!这篇论文可以说是探索记忆的层次概念的最早期的论文之一。大多数记忆增强式的网络往往只有扁平的记忆结构。这篇论文不应该被轻视。
3.RL²:通过慢速强化学习的快速强化学习(RL²: Fast Reinforcement Learning via Slow Reinforcement Learning)
-
作者:Yan Duan, John Schulman, Xi Chen, Peter L. Bartlett, Ilya Sutskever, Pieter Abbeel
-
地址:https://openreview.net/forum?id=HkLXCE9lx
说明:居然把这篇论文给拒了,评议者一定是在逗我!这可是一篇突破性的研究啊!我猜原因是因为标题里面的 RL² 看起来太吓人了。任何关于元学习(meta-learning)的研究都应该是畅销货,然而这篇论文尽管有声名显赫的作者,但还是惨遭淘汰。真是不可想象!
4. 揭秘残差网络(Demystifying ResNet)
-
作者:Sihan Li, Jiantao Jiao, Yanjun Han, Tsachy Weissman
-
地址:https://openreview.net/forum?id=SJAr0QFxe
说明:我很喜欢这篇论文,因为其给出了一些关于如何使用残差或 skip 连接的有见地的经验法则。2016 年最热门的创新,一些人尝试解构这项技术,然而他们的努力却遭受了打击。有人说因为这项研究中使用了简化过的模型。但这个理由可以说是荒唐可笑,你难道不会选择使用简化模型来表征复杂的模型吗?这难道不是理所当然的事情吗?
5. 一种神经知识语言模型(A Neural Knowledge Language Model)
-
作者:Sungjin Ahn, Heeyoul Choi, Tanel Parnamaa, Yoshua Bengio
-
地址:https://openreview.net/forum?id=BJwFrvOeg
说明:又是一篇关于 NLP 的论文,又是 Yoshua Bengio 被拒的一篇论文。将知识库与深度学习融合应该是一项非常重大的成果,然而这篇论文却因为「缺乏新颖性(lack of novelty)」而被驳回。评议者抱怨最多的是该论文的书写风格,真是不幸。
6. 知识适应:教会适应(Knowledge Adaptation: Teaching to Adapt)