又为写作思路熬到秃头?这16篇最新论文打包送你
在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。
在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。
点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。
这是 PaperDaily 的第 111 篇文章#Knowledge Base
本文是伦斯勒理工大学发表于 INLG 2018 的工作,论文为结构化 KB 提供了有效的描述生成,并且提出基于 KB 重建的 metric 来评估在输出中正确表达的事实数量。此外,论文还创建一个基于 Wikipedia 的 KB description dataset,包含 106,216 个实体。
▲ 论文模型:点击查看大图
#Document Relevance Ranking
本文是 Google AI 发表于 EMNLP 2018 的工作,主要研究的是深度学习在检索中的应用。论文提出了三种针对文档相关性排序的新模型,这几种模型基于此前的 DRMM 模型(A Deep Relevance Matching Model for Ad-hoc Retrieval)。具体来说,DRMM 模型使用的是上下文无关的 term encoding 编码方式,而本文提出的改进模型则借鉴了 PACRR 的思想,融合了 n-grams 和不同方式编码的上下文信息。
作者在 BioASQ 和 TREC Robust 2004 两个数据集进行了实验,实验证明本文模型优于 BM25-baseline、DRMM 和 PACRR。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Graph to Sequence Learning
本文是 IBM Research 发表于 ACL 2018 的工作,论文提出了一种将图直接映射为序列的端到端模型——Graph2Seq。与 Seq2Seq 类似,该模型由一个 Graph 编码器和一个 Sequence 解码器组成。Graph 编码器将输入的图映射为一个图的表示以及一系列节点表示,而 Sequence 解码器则基于这些表示生成相应的目标序列。
通过在 bAbI 任务、最短路径任务以及自然语言生成任务上的实验,本文证明了 Graph2Seq 模型可以被有效地用于从图到序列的任务。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Word Embeddings
本文是 Infinia ML Research、杜克大学和腾讯 AI Lab 发表于 NIPS 2018 的工作。论文基于 Wasserstein 距离和 Distillation 机制提出了一个全新思路,通过联合训练基于欧式距离的词向量和基于 Wasserstein 距离的主题模型,大幅提升了词向量的语义准确度。
▲ 论文模型:点击查看大图
#Relation Extraction
本文是根特大学发表于 EMNLP 2018 的工作,论文提出了一个能同时执行实体识别和关系抽取任务的 multi-head selection 联合模型。实验证明本文模型在大多数数据集上,可以在不依赖其他 NLP 工具、且不使用人工设置特征的情况下,同步解决多关系问题。
▲ 论文模型:点击查看大图
@hsu 推荐
#Semantic Segmentation
本文是 Google 发表于 NIPS 2018 的工作,论文首次提出了一个基于元学习的语义分割模型,可避免调参时过于玄学、没有规律性的特点,受NAS启发设计基于搜索空间的语义分割网络模型。
此外,论文还提出了基于 Dense Prediction Cell (DPC) 构建的递归搜索空间,对多尺度上下文信息编码,实现语义分割任务。作者采用基于随机搜索的搜索策略来找到最优的网络结构参数配置。
▲ 论文模型:点击查看大图
@Kralkatorrik 推荐
#Face Recognition
人证比对是人脸识别的一个重要应用场景,在主流的人脸识别研究中,通常是研究如何获取更好的人脸表征。本文提出了一种叫做 DocFace 的方法,通过迁移学习,将处于不同 domain 的证件照和生活照样本映射到同一个 domain 中。
具体流程如下:
1. 使用 AM-Softmax 在清洗过的 MS-Celeb-1M 数据集上训练一个基础网络 F;
2. 从这个网络开始同时训练两个网络 (G,H) 来适应证件照和生活照,这个过程使用作者提出的 MPS loss 损失函数。
最终模型在私有 ID-Selfie 数据集上相比 basenetwork 能获得 30% 以上的提升(FAR@0.001)。
▲ 论文模型:点击查看大图
@zmaker 推荐
#Convolutional Neural Network
本文是上海交大和杜克大学发表于 ECCV 2018 的工作,论文提出了一种基于 Quaternion 的 CNN——QCNN。QCNN 将图像的 RGB 通道转换到 Quaternion 数域进行讨论,并由此给出了 quaternion convolution layers 和 quaternion fully-connected layers 等结构。文章从"微观"上进行改进,提出了新的卷积神经网络,在 high-level vision task 和 low-level vision task 都取得了不错的效果。
▲ 论文模型:点击查看大图
@Kralkatorrik 推荐
#Face Recognition
本文是商汤科技、UCSD 和南洋理工大学发表于 ECCV 2018 的工作。论文对于现有人脸数据集中的标签噪声问题进行了深入研究,对 MegaFace 和 MS-Celeb-1M 数据集中的噪声特性和来源做了全面的分析,发现干净子集对于提高人脸识别精度效果显著。
▲ 论文模型:点击查看大图
@Fiersies 推荐
#Scene Understanding
本文是北京大学、MIT、字节跳动和旷视科技发表于 ECCV 2018 的工作,论文提出了名为统一感知解析 UPP 的新任务,要求机器视觉系统从一张图像中识别出尽可能多的视觉概念;又提出多任务框架 UPerNet ,开发训练策略以学习混杂标注。UPP 基准测试结果表明,UPerNet 可有效分割大量的图像概念。
▲ 论文模型:点击查看大图
@xuzhou 推荐
#Wavelet Transform
本文是北京航空航天大学发表于 KDD 2018 的文章,论文提出将小波变换和深度神经网络进行完美结合,克服了融合的损失,对时间序列数据的分析起到了很好的启发性研究。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Session-based Recommendation
本文是中科大和京东发表于 SIGKDD 2018 的工作。现有的序列化推荐方法往往仅对消费者的短期行为特征进行分析,没有充分考虑到用户的长期偏好以及偏好的动态变化过程。本文基于用户行为区别,提出了一个针对商品推荐任务的全新 BINN(Behavior-Intensive Neural Network)模型,该模型包括一个 Item Embedding 和两个 RNN。Item Embedding 对用户产生的 item 序列运用类 Skip-gram 的模型,两个 RNN 分别用于捕获用户当前偏好和历史偏好。
▲ 论文模型:点击查看大图
@zhangjun 推荐
#Bayesian Optimization
本文来自 NIPS 2017 BayesOpt Workshop,论文提出了一种基于迁移学习的初值设定方法,用来提升贝叶斯优化搜索最优超参数的效率。文中通过学习一个基于 DNN 的距离函数,来找到最相似的 K 个 dataset,将这些 dataset 的最优超参数定为 target 任务的几个初值,开始迭代寻优。
实验结果表明,高质量的初值将会让优化收敛更快。但用一个非常复杂的深度学习网络来计算相似度有一点杀鸡焉用牛刀的感觉,深度学习网络会带来更多的超参数,形成了死循环。
▲ 论文模型:点击查看大图
@zhangjun 推荐
#Neural Architecture Search
本文来自密西根州立大学,论文提出了一种多目标神经网络架构搜索框架 NSGA-Net,整个算法框架基于进化算法思路,通过 crossover 和 mutation 进行 exploration,然后基于已有的知识,学习一个基于贝叶斯优化模型(BOA),用于 exploitation。此处的 BOA 和自动调参中常见的贝叶斯优化不同,而是一种 EDA 算法,用贝叶斯网络作为概率模型。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Recommender System
本文是北京大学发表于 WSDM 2018 的工作。基于异构信息网络(HIN)的推荐由于其在模拟协同过滤、内容过滤、上下文感知推荐等方面的能力而受到广泛关注。现有各类方法的关键在于如何正确设置异构信息网络中各种 link 的权重。
本文提出了一种基于贝叶斯个性化排序(BPR)的机器学习方法——HeteLearn,来学习异构信息网络中的 link 权重,并将其应用于个性化推荐任务。作者在个性化推荐和标签推荐任务上对本文方法进行了测试,实验表明,本文方法表现明显优于传统的协同过滤推荐算法和当前最先进的基于 HIN 的推荐方法。
▲ 论文模型:点击查看大图
@deanli 推荐
#Graph Convolution Neural Network
本文是斯坦福大学发表于 KDD 2018 的工作。论文提出了一种图卷积网络层次化的池化方法,“图卷积网络+池化”可以将 graph 表示成低维向量,从而简化 graph 之间的计算。本文方法与现有 Graph Pooling 方法不同的是,作者将 graph 中 vertex 的层次关系考虑了进去。
如何获取 vertex 的层次关系以及如何将 l 层的 n 个 vertex 映射到 l+1 层的 m 个 vertex 是研究的重点之一。本文通过 GCN 学习得到 assign matrix S ∈ R^(n*m),assign matrix 中元素代表 l 层中 vertex 与 l+1 层中 m 个 vertex 的关联强度。通过 S 对 l 层的 adjacency matrix 和vertex matrix 做变换得到 l+1 层的两个矩阵,作为 GCN 的输入。
▲ 论文模型:点击查看大图
本期所有入选论文的推荐人
均将获得PaperWeekly纪念周边一份
▲ 深度学习主题行李牌/卡套 + 防水贴纸
礼物领取方式
推荐人请根据论文详情页底部留言
添加小助手领取礼物
想要赢取以上周边好礼?
点击阅读原文即刻推荐论文吧!
点击以下标题查看往期推荐:
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢? 答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
📬 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。
▽ 点击 | 阅读原文 | 获取更多论文推荐