收下这 16 篇最新论文,周会基本不用愁
在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。
在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。
点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。
这是 PaperDaily 的第 113 篇文章@tobiaslee 推荐
#Attention Mechanism
本文是北京大学孙栩老师组发表在 EMNLP 2018 的作品。文章通过实验发现,在利用 Seq2Seq 模型解决 Multi-Label Classific(MLC)问题时,传统 Attention 机制起到的贡献较小。原因在于传统 Attention 机制关注的是 word-level,而分类任务往往依赖着整个句子的 salient meaning。
作者通过在 LSTM 产生的 word-level 上的表示进行多级的 Dilated Convolution 来捕获更高级别的 semantic unit(例如 phrases)的信息,进而增强 Seq2Seq 的效果。进一步地,作者将高层的 attention 和词级别的 attention 做了整合,提出 Hybrid Attention 来兼顾各个级别表示的信息。文章提出的模型在 RCV1-v2 和 Ren-CECps 上对比的 Seq2Seq 模型都有较大的性能提升。
▲ 论文模型:点击查看大图
@xwzhong 推荐
#Text Classification
本文是 fast.ai 和 Aylien 发表于 ACL 2018 的工作。迁移学习在 CV 领域已得到广泛应用,但 NLP 领域的现有方法通常仍需从头开始训练。在 ImageNet 的启发下,本文提出了基于微调的通用语言模型——ULMFiT,该模型可应用于 NLP 领域的各类任务,未来也可以尝试将预训练用于不同的 NLP 任务中。论文在六个文本分类数据集上验证了本文模型的有效性,此外,作者在实验中采用的多种 trick 也颇具借鉴意义。
▲ 论文模型:点击查看大图
@icaruss 推荐
#Open-domain Chatbot
本文是微软发表于 NIPS 2018 的工作,这是一篇关于增加开放域聊天机器人多样性的文章。作者运用了 GAN 和 dual learning 的思想,针对原始的 MMI reranking 方法有所提高。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Word Embeddings
本文是香港中文大学发表于 IJCAI 2018 的工作。为了更好地捕捉词汇固有语义和句法信息,本文提出了两种基于词汇共现和奇异值分解的嵌入模型。本文对两种语义关系进行建模,一种是加和操作,另一种是投影操作,从而确保单词向量位于特定的超平面中,以清晰地分离具有不同性质的单词。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Dialog Systems
本文是剑桥大学和 PolyAI 发表于 EMNLP 2018 的工作,被评为 EMNLP 2018 最佳论文。论文提出了一个多领域绿野仙踪实验型数据集,这是一个具有标注的真人对话数据集,涵盖多个领域和主题。该数据集包含至少一万组对话,远超其他特定领域任务型对话研究所用的数据集。此外,本文还介绍了该数据集的构建过程、数据结构分析以及标注方法。作者通过在三个不同领域中进行实验对比,证明所构建数据集具有良好表现。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Machine Reading Comprehension
本文是百度发表于 ACL 2018 的工作,论文利用强化学习的方法对串行的多文档阅读理解模块进行联合训练。作者提出了一种新的答案选择模型,它结合了基于注意力相关矩阵组合所抽取的全部候选信息。本文模型在两个具有挑战性的开放领域阅读理解数据集 Quasar-T 和Search QA 上大幅超出了目前的最优结果。
▲ 论文模型:点击查看大图
@Kralkatorrik 推荐
#Face Recognition
本文来自北京邮电大学邓伟洪老师组,该论文是目前人脸识别领域的最新综述,和之前的人脸识别综述相比,这篇文章的重点是由深度学习引领的人脸识别突破。文章总结了近年来主流的深度网络结构,基于欧氏/余弦距离损失函数改进以及各种人脸图像处理的方法。此外还介绍了数据集、数据噪声影响分析、人脸识别场景等相关问题。从文章引用的近 250 篇文献中,可以充分了解当前人脸识别领域的现状。
▲ 论文模型:点击查看大图
@jamiechoi 推荐
#Image Captioning
本文是一篇来自莫道克大学的综述文章,论文全面回顾了当前基于深度学习的 Image Captioning 技术,讨论分析了各类方法的优势和局限性,还全面分析了 Image Captioning 任务常用的主流数据集和评估指标。
▲ 论文模型:点击查看大图
@Kralkatorrik 推荐
#Face Recognition
本文是来自 BMVC 2018 的一篇文章,论文在 Center Loss 的基础上增加了额外的约束,使学习到的特征相比 Center Loss 具有更大的类间距离和更小的类内距离。论文提供源码,但没有提供预训练模型。
▲ 论文模型:点击查看大图
@Fiersies 推荐
#Semantic Segmentation
本文是清华大学、南开大学和旷视科技发表于 ECCV 2018 的工作,论文通过整合显著性检测和图划分算法,提出一种新型弱监督学习方法加速语义分割发展。其最大亮点是既利用每个显著性实例的内在属性,又挖掘整个数据集范围内不同显著性实例的相互关系。
▲ 论文模型:点击查看大图
@Aspirinkb 推荐
#Neural Networks
本文是 Google 发表于 CVPR 2018 的工作,论文介绍了一种量化卷积神经网络的方法,使用最大值、最小值均匀量化权重和特征图。作者详细介绍了实现的细节,量化后的运算只需要整数运算和移位运算,能够加快推理速度,尤其适用于在 FPGA 等不擅长浮点数运算硬件中实现。
▲ 论文模型:点击查看大图
@zhangjun 推荐
#Hyperparameter Optimization
本文来自 arXiv 2018,文章研究的内容是如何利用推荐系统协同过滤的思想来解决机器学习问题中算法选择和超参数优化的问题。文中将推荐系统的评分矩阵概念类比到机器学习任务中,user-item-rating 矩阵在该任务中分别表示 dataset-algorithm-error,通过矩阵分解技术,预测 dataset-algorithm-error 的空白值,来帮助新 dataset 选择合适的 model。借用同一思想,构造了 runtime 矩阵,可预测 model 在 new dataset 上的 runtime。
本文属于一种 meta-learning 方法,整体来说很有新意,方法的有效性也在大量实验中得到了验证。这种类似 top-K 推荐的问题都是可以利用协同过滤来解决的。
▲ 论文模型:点击查看大图
@JasonZHM 推荐
#Weight Pruning
本文来自雪城大学、佛罗里达国际大学和东北大学,论文提出了一种使用 ADMM 方法对神经网络权重进行剪枝的通用方法,使得 LeNet、AlexNet 等网络在 MNIST、ImageNet 等数据集上的参数得到了大幅压缩。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Recommender Systems
本文是 LinkedIn 发表于 CIKM 2018 的工作。论文介绍了作者团队在 LinkedIn Recruiter 上应用深度学习和表示学习模型所取得的一些成果,即如何更高效精准地匹配候选人与招聘单位的招聘需求。本文创新点之一是引入了知识图谱对稀疏实体进行语义表示,其次则是基于语义表示采用扩展的深度语义匹配模型对人才匹配结果进行排序。
▲ 论文模型:点击查看大图
@xinqin 推荐
#Transfer Learning
本文来自中国地质大学。转移学习和集成学习是解决训练数据和测试数据分布不均匀问题的新趋势,本文设计一个集成迁移学习框架,并在该框架中组装提出的三种集成迁移学习算法。在集成学习的帮助下,提出的迁移学习算法将有用的实例从源域迁移到目标域,以提高分类精度。
▲ 论文模型:点击查看大图
@paperweekly 推荐
#Explainable Recommendation
本文是上海交大和弗吉尼亚大学发表于 SIGIR 2018 的工作。论文提出了一个用于可解释推荐任务的多任务学习方法,通过联合张量分解将用户、产品、特征和观点短语映射到同一表示空间。
▲ 论文模型:点击查看大图
本期所有入选论文的推荐人
均将获得PaperWeekly纪念周边一份
▲ 深度学习主题行李牌/卡套 + 防水贴纸
礼物领取方式
推荐人请根据论文详情页底部留言
添加小助手领取礼物
想要赢取以上周边好礼?
点击阅读原文即刻推荐论文吧!
点击以下标题查看往期推荐:
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢? 答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
📬 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。
▽ 点击 | 阅读原文 | 获取更多论文推荐