论文多到读不完?不如看看我们为你精选的这 15 篇
在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。
在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。
点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。
这是 PaperDaily 的第 123 篇文章@guohao916 推荐
#Machine Reading Comprehension
本文来自加州理工、华盛顿大学和 AI2。论文针对对话式机器阅读理解,提出了针对问题历史记录与篇章的Flow机制,这种机制可以通过交替的并行处理结构结合在回答前一个问题的过程中产生的中间表示,将先前的问题/答案连接起来作为输入。
与之前的浅层方法相比,Flow 更深入地整合了对话历史的潜在语义。相比于基准算法,本文提出的 FlowQA 模型在最近公开的两个对话式机器阅读理解数据集上均表现出优异的性能(CoQA为+ 7.2%,QuAC为+ 4.6%)。通过减少对会话机器理解的顺序构建理解,FlowQA 在 CoQA 数据集中在所有不同的七个领域中达到了最佳。
Flow 的有效性也体现在其他任务中。在 SCONE 的三个领域中,FlowQA 模型相比于基准算法在验证集和测试集上效果都有所提升。
▲ 论文模型:点击查看大图
@Luolc 推荐
#Dialogue Generation
本文是北京大学孙栩老师组发表在 EMNLP 2018 上的工作。在对话生成中任务,流行的基于 MLP 的学习方法倾向于生成“万能”回复,例如“I don't know”等缺少和输入语句有语义关联,没有意义的回复。
本文提出了一种基于 Auto-Encoder 对齐的模型,在训练中分别用两个 Auto-Encoder 非监督的学习输入和输出两者的句子表示,并使用一个 Matching Model 学习两者的对齐方式。自动化评测和人工评测显示这一方法可以显著提高对话生成的相关性、流畅度和多元性。
▲ 论文模型:点击查看大图
@zhangjun 推荐
#Bayesian Deep Learning
本文是 CMU 发表于 EMNLP 2018 的工作,作者基于 ICML 2017 论文 Deep Bayesian Active Learning with Image Data 中的方法,对 NLP 几大任务进行了实验,验证了基于贝叶斯 RNN 和 CNN 的主动学习方法的有效性。
▲ 论文模型:点击查看大图
@qifanchao866 推荐
#Cross-lingual
本文是清华大学刘知远老师组发表于 EMNLP 2018 的工作,论文提出了跨语言词的义原推荐这一任务,并且设计了基于融合义原信息的双语词表示和协同过滤的框架实现了较好的跨语言词义原推荐效果。
本文研究的问题是一个全新的问题,此前没有针对该问题的解决方法。而因为不同语言之间存在词的语义差异,直接将知网(HowNet)翻译成其他语言是不可行的。另外,义原比较隐晦,如何利用机器学习方法学习其表示也是一个挑战。
本文提出了基于融合义原信息的双语词表示和协同过滤的框架。将有义原标注的语言定义为源语言,需要进行义原标注的语言定义为目标语言。第一个模块用来学习在同一个语义空间的双语词向量,包含分别从源语言和目标语言单语语料中学习单语词向量、利用种子词典和匹配机制对齐双语词向量,以及将义原信息融入源语言词向量中三个部分。第二个模块利用第一个模块得到的双语词向量,利用基于协同过滤的方法为目标语言词进行义原推荐。
▲ 论文模型:点击查看大图
@honeyht 推荐
#Conditional Random Fields
本文是首尔大学发表于 ACL 2018 的工作。一般的一阶或二阶 CRF 不能实现远距离命名实体间的信息转换,且高阶的计算复杂不宜实现。本文提出一种前驱体诱导的线性链 CRF 方法实现远距离 NER。模型主要利用远距离实体间的外部令牌 outside label 作为信息媒介,将原始输入序列视为 <entity, outsides+, entity> 模式,通过媒介将第一个实体的信息传递给第二个。
结果表明模型稍微改善了临床和生物医学领域 NER 的效率,同时显著减少了计算量。模型未来改进:(1)应用到更多领域;(2)结合深度学习,如 LSTM-CRF等。
▲ 论文模型:点击查看大图
@chenhong 推荐
#Object Detection
传统基于 R-CNN 的架构通过回归边界框实现定位,RoI 的特征需要 flatten + FCs 预测边界框,属于曲线救国。ECCV 2018 的 CornerNet 通过直接预测边界框的左上角和右下角,预测目标的边界框。而本文是商汤最新提出的 Grid R-CNN,直接预测边界框包含四个边界在内的 9 宫格,在 Faster R-CNN/Mask R-CNN 基础上实现 state-of-the-art。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Deformable Convolutional Networks
本文来自中科大和微软亚洲研究院,论文提出了可变形卷积网络的新版本——第二代可变形卷积网络(Deformable ConvNets v2,简称 DCNv2)。
目标检测任务重有一个较为棘手的问题,即几何形变(Geometric Variations)。本文作者认为 Deformable ConvNets v1 存在的问题是在 RoI 外部的这种几何形变适应性表现得不好,导致特征会受到无关图像内容影响。
本文在 v1 的基础上做了如下改进:1)增加可变形卷积的层数;2)增加可调节的可变形模块;3)采用蒸馏的方法模仿 RCNN 的特征。实验表明,DCNv2 在 ResNet-50 backbone COCO 上相比 DCNv1 提升了 5 个点。
▲ 论文模型:点击查看大图
@YuSuen 推荐
#Generative Adversarial Networks
本文来自 MIT、香港中文大学、Google Research 和 IBM Research,论文为理解 GAN 的内部表征提供了第一个系统性分析,并利用分析框架实现了各种有趣的应用。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Gait Recognition
本文是复旦大学发表于 AAAI 2019 的工作。论文研究的问题是步态识别,作者将步态识别视频序列视为图像集,在此基础上提出了 GaitSet 算法。
具体来说,作者通过以下三个步骤提取步态序列特征:1)提取单幅步态轮廓图像的 CNN 特征;2)将各幅图像的 CNN 特征聚合成一个特征向量;3)考虑提取多尺度特征,并通过全连接网络提高特征的鉴别性。本文方法在 CASIA-B 和 OU-MVLP 数据集上大幅超越了当前的 SOTA 算法。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Image Understanding
本文是韩国科学技术院发表于 NeurIPS 2018 的工作,论文针对场景图生成任务提出了一个 Relational Embedding 模块,可以利用图片中所有的物体特征对某个物体的特征进行更新。此外,作者还提出了一个全局上下文编码模块对全局上下文信息进行编码,以及一个几何布局编码模块来显式使用几何布局信息。
▲ 论文模型:点击查看大图
@cuthbert 推荐
#Domain Adaptation
本文是清华大学龙明盛老师组发表于 AAAI 2019 的工作。Domain Adaptation 的目的是为了减小 source domain 和 target domain 之间的 discrepancy,使得在 source domain 上训练的模型也能较好地作用于 target domain。
最近的 Deep Domain Adaptation 大多专注于设计 GAN 的网络结构来解决问题,本文没有继续在网络结构或损失函数上做文章,而是引入 attention 机制来解决以往 Adversarial Domain Adaptation 方法中细粒度不够的问题。
文章设计了两种 attention 来探寻图片中不同结构和区域的可迁移性,达到了 fined-grained transfer。相比以往引入类别信息,构造条件概率模型的方法,attention的引入给出了另一个很有意思的工作方向。
▲ 论文模型:点击查看大图
@SandyKid 推荐
#Deep Neural Networks
本文来自 CMU、USC、北京大学和 MIT,论文证明了使用梯度下降可以在多项式时间内将一个神经网络的训练损失下降到 0,对深入理解神经网络的机制以及该算法的白盒化有一定学习意义。
▲ 论文模型:点击查看大图
@Aspirinkb 推荐
#Deep Learning
本文来自 Facebook AI Research,论文改进了一种新颖的浮点数表示法(posit),使其更加适用于神经网络的训练和推理,并在 FPGA 上进行了对比实验。和 IEEE-754 浮点数标准相比,本论文基于改进的浮点数系统,可以实现低 bit 神经网络训练和高效推理,不再需要后续的量化压缩过程就可以部署在嵌入式等资源受限终端。
该论文提出的方法区别于神经网络模型的剪枝、量化等常规思路,直接从浮点数表示这个更加基本、底层的角度尝试解决模型的压缩加速问题,是一个很新颖的方式,且效果不错,值得深入研究。除了论文,作者还给出了代码实现和博客文章,帮助理解。
▲ 论文模型:点击查看大图
@jsh0123 推荐
#Attacks Detection
本文是南京大学周志华教授团队发表于 NeurIPS 2018 的文章,文中定义了一种对于推荐系统的新型攻击模式——无组织的恶意攻击,公式化定义该问题,利用近似交替分裂增广拉格朗日法解决该问题,实验效果显著。该文在 arXiv 最早 2016 年发表,前后修改多次,于今年正式发表于 NeurIPS。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Recommender System
本文是新加坡国立大学发表于 IJCAI 2018 的工作,论文基于评论文本对用户偏好和商品特征进行抽取,提出了一种自适应注意力模型用于用户评论的智能排序,不断学习用户对商品在不同关注点方面的权重,进而提升推荐效果。
本文解决了已有方法忽视不同用户对商品不同侧面关注点不同的缺陷,并且在 Amazon Product Review 和 Yelp 2017 这两个大规模推荐系统数据库上取得了领域内最好效果。
▲ 论文模型:点击查看大图
本期所有入选论文的推荐人
均将获得PaperWeekly纪念周边一份
▲ 深度学习主题行李牌/卡套 + 防水贴纸
礼物领取方式
推荐人请根据论文详情页底部留言
添加小助手领取礼物
*每位用户仅限领取一次
想要赢取以上周边好礼?
点击阅读原文即刻推荐论文吧!
点击以下标题查看往期推荐:
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢? 答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
📬 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。
▽ 点击 | 阅读原文 | 获取更多论文推荐