学界 | 旷视论文三连发,公开COCO +Places 2017比赛获奖模型
AI 科技评论按:今年 ICCV 2017会议期间,COCO +Places 2017挑战赛公布了获奖榜单。在COCO Challenge 和 Places Challenge 两个板块的七项比赛中,旷视科技(Face++)拿下了 COCO Detection/Segmentation Challenge(检测/分割)、COCO Keypoint Challenge(人体关键点检测)、Places Instance Segmentation(实体分割)三个项目的冠军。
有趣的是,Places Challenge 中允许提交五次成绩,旷视在实体分割项目上第一次提交的成绩就以0.27717 Mean AP远远甩开了其它队伍中的最好成绩0.24150,最终的第三次提交更继续提升到了0.29772,稳坐第一名。
近日,旷视科技就在arXiv上连发三篇论文,内容包括了自己在COCO +Places 2017挑战赛中的获奖模型。AI 科技评论把这三篇论文简单介绍如下,感兴趣的读者欢迎查看原论文仔细研究。
Light-Head R-CNN: In Defense of Two-Stage Object Detector
轻量头部 R-CNN:守护两阶段物体检测器的尊严
论文地址:https://arxiv.org/abs/1711.07264
论文简介:这篇论文中,作者们首先探究了典型的两阶段物体检测方法没有YOLO和SSD这样的单阶段检测方法运行速度快的原因。他们发现,Faster R-CNN 和 R-FCN 在候选区域产生前或后都会进行高强度的计算。Faster R-CNN 在候选区域识别后有两个全连接层,而 R-FCN 会产生一张很大的分数表。这些网络由于有这样的高计算开销的设计,运行速度就较慢。即便作者们尝试大幅度缩减基准模型的大小,计算开销也无法以同样幅度减少。
作者们在论文中提出了一个新的两阶段检测器,Light-Head R-CNN,轻量头部 R-CNN,意在改善当前的两阶段方法中计算开销大的缺点。在他们的设计中,通过使用小规模的feature map和小规模的R-CNN子网络(池化层和单个全连接层),网络的头部被做得尽可能轻量化。作者们基于ResNet-101构造了一个轻量头部的R-CNN网络,在COCO数据集上超越当前最好水准的同时还保持了很高的时间效率。更重要的是,只要把骨干结构换成一个较小的网络(比如 Xception),作者们的 Light-Head R-CNN 就可以在COCO数据集上以102FPS的运行速度得到30.7mmAP的成绩,在速度和准确率两个方面都明显好于YOLO和SSD这样的快速单阶段检测方法。相关代码将会公开发布。
检测精度与推理时间对比图
Cascaded Pyramid Network for Multi-Person Pose Estimation
用于多人姿态估计的级联金字塔网络CPN
COCO Keypoint Challenge 第一名
论文地址:https://arxiv.org/abs/1711.07319
论文简介:多人姿态估计这个课题的研究成果近期有了很大的提升,尤其是在卷积神经网络快速发展的帮助下。然而,还是有许多情境会造成检测困难,比如关键点重叠、关键点不可见以及背景复杂的情况都还解决得不理想。在这篇论文中,作者们提出了一种新的网络结构 Cascaded Pyramid Network,级联金字塔网络 CPN,意在解决这些困难情境下的关键点识别问题。具体来说,他们的算法包含两个阶段,GlobalNet 和 RefineNet。GlobalNet 是一个特征金字塔网络,它可以找到所有“简单”的关键点,比如眼、手;重叠的或者不可见的关键点就可能无法准确识别。然后RefineNet 是专门用来处理“难”的关键点的,它会把 GlobalNet 中所有级别的特征表征和一个难关键点的挖掘损失集成到一起。总的来说,为了解决多人姿态预测问题,他们采用了一个逐步细化的流水线,首先用检测器生成一组边界框,框出图中的人体,然后用级联金字塔网络 CPN在每个人体边界框中定位关键点。
根据所提的算法,作者们在COCO的关键点检测比赛中刷新了最好成绩,在COCO test-dev 数据集上取得73.0的平均精度,并在COCO test-challenge 数据集上取得72.1的平均精度。这一成绩比COCO 2016 关键点检测比赛的最好成绩60.5提升了19%之多。
CPN 的部分检测结果
MegDet: A Large Mini-Batch Object Detector
mini-batch很大的物体检测模型MegDet
COCO Detection/Segmentation Challenge 第一名
论文地址:https://arxiv.org/abs/1711.07240
论文简介:基于CNN的物体检测研究一直在不断进步,从 R-CNN 到 Fast/Faster R-CNN,到近期的 Mask R-CNN,再到 RetinaNet,主要的改进点都在于新的网络架构、新的范式、或者新的损失函数设计。然而mini-batch大小,这个训练中的关键因素并没有得到完善的研究。在这篇论文中,作者们提出了一个大mini-batch物体检测模型MegDet,从而可以使用远大于以往的mini-batch大小训练网络(比如从16增大到256),这样同时也可以高效地利用多块GPU联合训练(在论文的实验中最多使用了128块GPU),大大缩短训练时间。技术层面上,作者们也了提出了一种学习率选择策略以及跨GPU的batch normalization方法,两者共同使用就得以大幅度减少大mini-batch物体检测器的训练时间(例如从33小时减少到仅仅4个小时),同时还可以达到更高的准确率。文中所提的MegDet就是提交到COCO2017比赛的mmAP 52.5%成绩背后的骨干结构,这个成绩也拿下了检测任务的第一名。
同一个物体检测网络在COCO数据集上训练的验证准确率,mini-batch数量为16的运行在8块GPU上,256的运行在128块GPU上。mini-batch更大的检测器准确率更高,训练速度也几乎要快一个数量级。
“4.6亿美元融资”、“姚期智院士加盟”、“人脸识别方案应用于多款手机上”,再加上COCO比赛相关的技术成果和比赛成绩,仅近期的几则消息就可以说明旷视科技已经走得很大、很稳了。AI 科技评论也祝福旷视科技做出更多的研究成果,在世界范围内取得商业和学术的双丰收。
对话旷视:请姚期智出山是为本质创新,未来想成为国内首家上市的纯人工智能公司
————— AI 科技评论招人啦! —————
我们诚招学术编辑 N 枚(全职,坐标北京)、新媒体运营 N 枚(全职,坐标深圳)、学术兼职 N 枚。
详情请参见AI科技评论招人啦,新媒体运营、学术编辑、学术兼职虚位以待!
欢迎发送简历到 guoyixin@leiphone.com
———— GAIR 智能驾驶峰会 2018 ————
10年前的DARPA挑战赛是催生自动驾驶商业化的里程碑,10年后的硅谷和匹兹堡成为全球自动驾驶研发和部署最激进的两个大本营。除了两地的斯坦福大学和卡耐基梅隆大学,Google、Uber、Tesla等大公司以及传统车企的超前研发也为美国的自动驾驶行业培养了大量人才。
而在地球的另一端,中国已经是最大的汽车消费市场,市场规模、特色的道路和法规环境让中国市场成为一个独特且极具吸引力的市场。即便在美国,华人势力也是自动驾驶创新领域一支重要的主力军。
2018年1月16日,雷锋网将在旧金山湾区举办GAIR硅谷智能驾驶峰会,我们希望汇集中美两地最强的自动驾驶研发力量,与学界、互联网大公司、汽车行业以及新技术公司一起来一场自动驾驶领域的大party。
详细了解点击文末阅读原文
————————————————————