正经炼丹师如何完美安排国庆长假?| 假期专属论文清单
Hi,各位炼丹师
听说还有不到0.5天
我就要开启快乐肥宅模式了
你的国庆长假都有哪些安排呢?
景区看人,开车堵车,
回家被嫌弃,单身还要出份子钱,
这些国庆常规 bug,你真的想要吗……
为了帮你合理安排国庆假期
小编连夜整理了一份最新论文清单
希望你们都能从中找到些许小灵感
请看
↓
#Graph-to-Sequence Learning
本文提出了一种新的 encoder-decoder 框架来进行 graph-to-sequence 即图到序列的学习,在 AMR 图的序列生成和基于句法的神经机器翻译任务上取得了较好的结果。本文提出的方法解决了之前工作中存在的问题,包括将图结构线性化造成的信息丢失以及参数爆炸问题。
本文提出了一种图的转换方法,通过将图转换为 Levi 图从而解决了上述问题。同时该框架将 Gated Graph Neural Network 加入到 encoder 部分,其余部分采用 seq2seq 的原始结构,在两个任务上取得了超越了 seq2seq 的结果。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Dialog Systems
本文是上海交大发表于 COLING 2018 的工作,研究的问题是检索型对话系统。论文提出了一个深度对话整合模型,解决了以往对话理解模型中将多句对话话语直接拼接而忽略话语间关系的问题。
具体来说,论文模型将过往对话整合到 context 中,根据话语和回复挖掘关键信息,然后将每一个过往话语与回复进行语义匹配得到匹配分数。其中将最重要的回复前最后一句话语(可视为 query),与其他过往话语的向量表示进行了融合,并通过编码使每句话语中的关键信息得到凸显、过滤冗余信息。
▲ 论文模型:点击查看大图
@guohao916 推荐
#Machine Reading Comprehension
生活中,人们通常根据一系列相互关联的问答情况来收集信息。因此使用基于对话的机器阅读理解可以更有利于信息的收集。针对该场景,本文发布了一个基于对话的机器阅读理解数据集 CoQA。与以往的机器阅读理解数据集如 SQUAD 不同,该数据集存在以下特点:
1. 与之前数据集中答案通常存在于篇章的句子片段中的情况不同,该数据集在生成过程中尽量避免使用句子中已经存在的短语或者片段,以短语或者片段的同义词或者同义片段的形式呈现;
2. 问题的答案中存在自由形式的短语片段,即需要对多条篇章句子加以归纳总结;
3. 篇章分别来自一系列不同的领域;
4. 和多轮对话的情况类似,问答对呈现出连续多轮的特点,平均轮数为 15 轮。问答对呈现出序列性的依赖关系。
该问题可以看成对话系统和问答系统的一个综合性的应用。论文使用多种基准算法进行对比实验,包括 Seq2Seq, PGNet, DrQA 以及 DrQA+PGNet。实验结果表明效果最优的模型 DrQA+PGNet 依然比人工标注得到的 F1 指标数目要低很多,因此该数据集具有很大的模型提升空间。
▲ 论文模型:点击查看大图
@tobiaslee 推荐
#Text Generation
本文是北京大学发表于 NAACL 2018 的工作。论文借鉴了 Attention is All your Need 的思想,通过 Query 的方式来进行文本的生成。
传统文本生成的方式会使用一层全连接层将隐层状态映射到词表上,获得一个概率分布,这样做存在两个问题:参数量巨大和语言关系的丢失(没考虑到词的概率之间的关联关系)。
本文采用将候选词作为 value, 而对应的 word embedding 则是 key,通过将 RNN 的输出作为 query,根据 query 和 embedding 的 similarity 来进行生成词的选取。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Question Answer Matching
本文是汉诺威大学发表于 SIGIR 2018 的工作。Answer Selection 是 QA 任务中的重要子任务,现有方法往往先通过单个向量对问题和回答进行表示,然后再计算打分。论文提出了一种多阶段的 Sequential Attention 机制,将问题进行多次 attention,从而使得能够在不同阶段注意到答案不同的阶段,有效处理了长文本语义的表达问题。
实验表明,本文提出的模型在各主流 QA 数据集(TREC-QA、WikiQA、InsuranceQA、FiQA)上均取得了最优表现。
▲ 论文模型:点击查看大图
@mrililili 推荐
#Natural Language Inference
本文来自赫尔辛基大学,论文主要关注的是自然语言推理任务。作者利用多层双向 LSTM 进行句子编码,并用上一个 LSTM 的结果初始化下一个 LSTM,取得了较好的结果。此外,实验表明本文提出的句子嵌入方法可应用于各类迁移学习任务。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Natural Language Understanding
自然语言处理任务的成功取决于标注数据的数量和质量,训练数据不足将直接影响任务精度和准确度。针对文本语料不足的情况,本文提出了一种将神经网络和正则表达式相结合的方法,来改进 NLP 的监督学习。
本文提出的方法在少量学习和完整注释设置上都明显提高了神经网络的性能。此外,本文为如何将 REs 与 NNs 和 RE 注释相结合提供了一套指南。
▲ 论文模型:点击查看大图
@lunar 推荐
#Dataset Creation
本文是由 CMU 的一众科学家发布的一个公开数据集,他们组织了 4 个受试者去观察 5000 张图片,并在他们观察图片时记录下当时脑部的核磁共振图。 通过该数据集,我们可以将人工神经网络和人类神经网络联合起来分析,可以想象通过这个数据集,可以做出许多有趣的工作。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Pedestrian Detection
本文是中科院自动化发表于 ECCV 2018 的工作。本文重点关注行人检测中的遮挡问题,并为此提出了两种遮挡处理策略。作者在Faster R-CNN的基础上提出了一种全新方法——OR-CNN,其主要包括两个部分:第一阶 段RPN 产生目标候选框,第二阶段 Fast R-CNN 对目标候选框进行进一步的分类和回归。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Semantic Segmentation
本文是 UC Berkeley 发表于 ECCV 2018 的工作,论文提出了一种以自适应相似场(Adaptive Affinity Fields )来辅助语义分割的方法,增强了网络对目标结构推理的能力,取得了非常显著的性能提升。
此外,本文提出的方法也是一种全新的深度学习结构建模方法,不仅可以用于语义分割,理论上也适用于图像深度估计、光流计算等对图像进行像素级理解的任何场景。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Person Re-ID
本文是复旦大学发表于 ECCV 2018 的工作,论文主要研究的是行人重识别任务中的人体姿态变化问题。作者利用 GAN 生成新的姿态行人图片,然后融合原图和生成图的 ReID 特征作为最终特征。在测试阶段,论文定义了八种代表性的姿态,然后生成八张人造图,加上原图总共可以得到九个特征,最后使用 max pooling 得到最终的 ReID 特征。
▲ 论文模型:点击查看大图
@DanielTANG 推荐
#Object Tracking
本文来自 UCL,论文提出了一种动态 RGBD SLAM 方案,不仅能实现实时的场景感知 3D 重建,而且利用了 Mask RCNN 以及几何分割对 2D 图像进行实例分割,同时映射到 3D,建立 3D 模型的语义分割。并且将要开放源码,对于语义 SLAM 研究有着一定帮助。
▲ 论文模型:点击查看大图
@woonchao 推荐
#3D Reconstruction
本文是香港中文大学和腾讯优图联合发表于 ECCV 2018 的工作,论文提出了一个用于基于点云的 3D 模型重建损失函数,相较于传统的 Chamfer distance,这个损失能更好的刻画全局信息,对于提升 3D 模型重建效果有很大帮助。
论文用 GAL 来刻画重建之后的模型损失,它由两个术语组成,其中几何损失确保从不同视点接近 Groundtruth 的重建 3D 模型的一致形状,条件对抗性损失生成具有语义意义的点云。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Image Retrieval
本文是厦门大学和悉尼科技大学发表于 ECCV 2018 的工作,论文提出了一种异质同源学习方法来解决无监督域适应问题,归根结底其依然是基于 GAN 生成图的工作。
本文工作主要基于两个假设:1. 相机不变性,同未标注的正样本对来学习到相机的风格;2. 域连通性,即 source 和 target 域的行人图片默认没有重叠,是负样本对。第一点是同源学习,因为用的样本都是相同域的。第二点是异质学习,因为用到了两个域的样本。
▲ 论文模型:点击查看大图
@xuehansheng 推荐
#Network Embedding
本文是香港科技大学和腾讯发表于 IJCAI 2018的工作,论文提出了一种可扩展的多路复用网络嵌入模型(scalable multiplex network embedding model),将多字形关系的信息表示为一个统一的嵌入空间。
为了在保持其独特属性的同时组合不同类型关系的信息,对于每个节点,作者为每种类型的关系提出一个高维公共嵌入和低维附加嵌入。然后,可以基于统一的网络嵌入模型联合学习多个关系。
▲ 论文模型:点击查看大图
@simonhua 推荐
#Neural Networks
本文利用 ML 对网络进行建模用来评估网络性能,成功对网络建模有利于网络优化,配合 SDN 在 SDN 控制器的帮助下能够有效对网络配置进行合理优化。本文提出了使用神经网络根据输入流量函数准确对网络时延进行建模。
作者基于不同计算机网络参数(网络拓扑,网络大小,流量强度,路由策略)训练了不同神经网络模型,研究了不同的计算机网络参数对于学习能力有何影响,对未来使用机器学习对网络建模的可行性进行了验证并提出了几点讨论建议,可以作为实际环境部署的指南方针。
▲ 论文模型:点击查看大图
@MADONG 推荐
#Deep Reinforcement Learning
本文来自 DeepMind,论文主要贡献如下:
1. 关系推理中深度学习的加入:深度学习让关系表达的对象得以加入到我们的控制中,原先无法直接处理的物理对象可以引入了,这样 agent 与真实世界的交互变得可能了,推理也就变得有意义了。 深度学习对特征的提取功能,让关系强化学习能够关注在深度学习抽象后的特征中,把特征对应成自己需要掌握的关系对象。这样其实比直接对应真实的物体更进一步;
2. Attention 模块的加入:Attention 模块让关系强化学习中关系的表达得以更优秀。原本的 RNN 等算法对于序列的长短比较敏感,但是在 attention 机制下,两个向量之间关系的计算不再受向量之间距离的影响。同一个场景下欧式距离较远的对象也可以很好的提取出存在的关系;
3. 强化学习的加入:在这里主要是监督 attention 模块中权值 w 的改变调整。
▲ 论文模型:点击查看大图
@xuehansheng 推荐
#Network Embedding
本文来自亚利桑那州立大学,论文提出了一种新颖的多级网络嵌入框架 BoostNE,它可以学习从粗到细的不同粒度的多个网络嵌入表示,而不会强加普遍的全局低秩假设。方法新颖值得深入研究。
▲ 论文模型:点击查看大图
@linxi2333 推荐
#Audio Generation
本文是对 DeepMind 的 Tacotron2 的改进,Tacotron2 是一种端到端的语音合成系统。论文单高斯简化了 parallel WaveNet 的 KL 目标函数,改进了蒸馏算法(distillation),使得结构更简单,更稳定;通过 Bridge-net 连接了 Tacotron(特征预测网络)和 WaveNet,彻底实现端到端。
▲ 论文模型:点击查看大图
@Ttssxuan 推荐
#Reinforcement Learning
本文对 ALE (Arcade Learning Environment) 平台做了进一步深入介绍,主要从以下几点出发:1. 总结了关于 ALE 相关问题的经验,如:Frame skipping, Color averaging and frame pooling 等;2. 总结最新成果,以及当前待解决的一些问题 ;3. 新的 ALE 版本,介绍了新平台的特性,如:sticky actions, multiple game modes 等。
▲ 论文模型:点击查看大图
本期所有入选论文的推荐人
均将获得PaperWeekly纪念周边一份
▲ 深度学习主题行李牌/卡套 + 防水贴纸
礼物领取方式
推荐人请根据论文详情页底部留言
添加小助手领取礼物
想要赢取以上周边好礼?
点击阅读原文即刻推荐论文吧!
点击以下标题查看往期推荐:
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢? 答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
📬 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。
▽ 点击 | 阅读原文 | 获取更多论文推荐