查看原文
其他

ECCV 2020 | 云端参会攻略之Oral篇,前排占位、强势围观!

让创新获得认可 将门创投 2023-03-11

关注并星标

从此不迷路

Jiangmen

From: eccv.eu 编译: T.R  


CVPR的热度还未褪去,ECCV(欧洲计算机视觉大会)又要在下个月到来啦!和所有今年的会议一样,原定于英国格拉斯哥举行的第16届ECCV 2020全部转移到线上进行了。下面让我们一起来看看今年的ECCV都有哪些值得关注的内容,前排占位、提前观看!


在正式开始之前

我“门”还有一份惊喜礼物送给大家

点击下方空白处一键查收

连续三年在CVPR搞事情的我“门”

今年将首次“进军”ECCV

将往年的线下大趴体搬到云端进行

延续往年传统:大佬新星一个都不能少

创新活动形式:云端聚会畅聊CV新进展

更多惊喜,静等8月初的官宣哦~




ECCV2020 概览

本次ECCV共收到了5025篇有效投稿,接收论文1361篇。其中被选为口头报告的论文104篇,焦点论文161篇。虽然所有的分享和互动改为线上进行,但高质量的研究和ppt将通过视频向世界各地的参会者呈现。这些内容将会在会议正式开始前一周向参会者开放,研究人可以提前观看视频从而为正式会议的交流做好准备。


值得一提的是,针对在线会议的特点,所有的论文视频还提供了一两分钟速览版的短视频完整10分钟版本的长视频,方便大家在短时间内快速浏览所有的会议内容,并筛选出自己感兴趣的内容进行详细观看。



此外,教程研讨会部分也是会议最为重要的交流场合了。这次ECCV将举办45场研讨会,涵盖了图像处理、三维重建、视觉感知等不同的研究领域和生物图像、自动驾驶、多媒体处理、机器人等广泛的应用领域,为各个领域的研究人员都提供了交流的平台。


针对最新的研究成果、技术和设备,会议还将举办16个教程为参会人员提供最新的研究工具、技术、软件和新的计算理论及研究方法。整个教程部分将涵盖视觉识别、计算机视觉加速、模型训练、数据效率、自动网络搜索等方面展开。


 关注“将门创投”微信公众号,后台回复“ECCV”,获取Oral论文pdf合辑


Oral论文

Oral部分精选了会议投稿中最为出彩、最具特征的论文,它们要么提出了新的想法和观点、要么从不同的视角创造性地解决了先前的问题,要么在原有的指标上有了大幅提升。


我们将104篇Oral论文归纳为了以下类别,包括各种新颖的计算理论和计算方法、提升图像质量的增强补全超分辨等、空间与几何相关的多视角问题、深度估计与三维重建、广泛使用的目标检测、实例分割、位姿估计与行为分析等应用,还包括了神经网络架构、可解释性等方面的深入研究。此外还有涉及时尚、服装等领域的数据集呈现。


下面我们将快速浏览其中一些有意思的工作,从研究问题方法和架构上了解目前视觉领域的前沿进展。



针对立体视觉领域的研究,有来自电子科技大学与旷视合作的非监督单应性估计算法,提出了一种新的架构来解决计算过程中图像特征质量的影响,针对低纹理、低光照、前景移动等场景下都能取得良好的效果。


下图展示了整体的网络结构,通过两个图像输入,经过特征抽取器f和掩膜预测器m,得到的特征随后被送入单应性预测器中来预测八个单应性矩阵参数。其中引入了triple loss来训练网络,最小化变化后的特征距离、最大化仿射变换前的特征距离。



来自复旦、谷歌和Nuro,Inc提出一种深度BA方法来实现SFM重建,通过设计一种基于物理原理的架构来实现优化过程中的结构约束。架构中包含了两个cost volum来估计深度和位置,迭代的进行改进。其中不仅加入图像度量来保证输入间的连续性,同时还添加了几何连续性保证不同视角间的深度一致。位置和深度的显式约束结合了BA和深度学习的共同优势,实现了非常好重建性能。



来自牛津大学、百度和港中文的研究人员提出了一种具有域不变性的立体匹配网络,通过域归一化的手段来正则化学习到的分布,同时利用可训练的非局域图滤波器抽取结构和几何特征进一步增强域不变性的的泛化性。下图显示了域归一化和文中使用的图结构。



来自康奈尔和浙大的研究人员提出了一种弱监督的特征描述子学习方法,基于图像和相机间的相对位置来进行监督。为此采用了包含极线约束的损失函数和完全可差分的高效模型架构。由于脱离了逐像素约束的限制,这种方法可以在更为广泛的数据集上训练得到更无偏更通用的描述子。下图显示了仅仅依赖相机位置的极线约束训练过程(相同颜色对应点和极线):


下图则是极线约束的具体示意图:


可差分层和由粗到细的模块结构:


来自清华、慕尼黑理工和谷歌的研究人员提出的自监督单目6D位姿估计,消除了对于标注数据的需求。研究人员首先在合成的RGB数据集上进行训练,随后利用大量非标记数据和神经渲染方法来改进训练结果。



下图展示了完整的训练架构:


谷歌的研究人员针对深度估计领域提出了双相机双像素的估计方法,获得了具有边缘感知在遮挡情况下精度更高的深度结果。通过大垂直极限的双相机和小水平基线的双像素缓解了孔径问题和遮挡问题。这篇文章使用了新颖的架构融合双目立体视觉和双像素立体视觉,克服了单纯立体视觉在遮挡、重复纹理、边缘误差方面的劣势。



三维曲面重建方面,来自澳大利亚国立的研究人员提出了一种DeepFit的方法,通过神经网络加权的最小二乘来拟合曲面。神经网络为每一个点提供了权重作为邻域点的柔性,避免了先前方法中的尺度需求。同时提出了表面连续性损失来改进权重估计。这种方法可以有效抽取表面法向量和曲率等几何特征。下图显示了法向量和曲率的估计流程,针对每一个点都可以计算出全局和局部的表示,并估计出逐点的权重结果,随后通过解最小二乘法方法来拟合n-jet。


在时尚领域,康奈尔、谷歌和Hearst Magazines提出了Fashionpedia数据集,包含了本体、分割、属性定位等丰富的数据资源。



来自港中文、深圳大数据研究院、浙大、西安交大、腾讯和中科大的研究人员们提出了用于三维服饰时尚重建的Deep Fashion3D数据集,包含了2078个模型重建数据、覆盖了10个不同的类别和563种实例。



针对行人的相关研究,来自伯克利、南京大学和Facebook的研究人提出了基于场景上下文的长时行人运动轨迹预测,在给定单图场景和2D位置历史的基础上,可以预测出人体行为受到场景的长期影响。下图显示了场景中人体行为的预测结果。



来自佐治亚理工、威斯康辛麦迪逊、德国马普研究所和图宾根大学的研究人员提出了预测人体与场景中目标的交互过程,通过将手的意图特征编码到网络中与输入图像共同预测交互的目标。



此外针对图像修复和图像质量提升方面,来自港中文、南洋理工、港大的研究人员提出了利用深度生成先验来对图像进行修复和操作,基于大规模自然图像数据集训练的生成模型来捕捉图像先验,为各种退化过程的修复提供了良好的保障。



北京大学、微软亚洲研究院和多伦多大学的研究人员针对缩放图像信息丢失问题提出了一种新的视角为缩放与上采样进行建模,构建了可逆的双射过程。提出了可逆缩放网络来提升低分辨图像效果,并捕捉下采样过程中的信息丢失,使得尺度缩放过程变得可回溯。


下图显示了问题的流程,下采样过程使用了小波变换,并通过网络得到了包含丢失信息的分布和对应的低分辨图像。



针对视角合成问题,来自伯克利、谷歌和UCSD的研究人员提出了将场景表示为神经辐射场的过来进行合成。利用全连接深度网络来表示场景,其输入为5D的空间位姿坐标、输出为体密度和空间位置视角相关的辐射。通过在相机方向上查询5D坐标并利用经典的渲染技术将输出颜色和密度映射到图像上。


还有来自CMU和Argo AI关于自动驾驶中延时造成场景流理解的研究,并提出了流精度的概念来将处理延时和精度进行了整合。


以及谷歌研究人员对于非监督光流进行系统的研究,并构建包括代价空间归一化、遮挡梯度截止、光流场上采样平滑以及尺度变化过程中的自监督来改进光流估计的结果。




除了这些论文,还有非常多有趣的精彩的研究成果在Oral中呈现,更多的论文和代码也在逐渐放出,我们将持续追踪后续放出的研究成果,及时为小伙伴们呈现更多高水平的研究成果。



更多Oral请参看ECCV的详细链接:
https://eccv2020.eu/accepted-papers/



本周上新!扫码观看!

来扫我呀


关于我“门”


将门是一家以专注于发掘、加速及投资技术驱动型创业公司的新型创投机构,旗下涵盖将门创新服务、将门技术社群以及将门创投基金。将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。


将门创新服务专注于使创新的技术落地于真正的应用场景,激活和实现全新的商业价值,服务于行业领先企业和技术创新型创业公司。


将门技术社群专注于帮助技术创新型的创业公司提供来自产、学、研、创领域的核心技术专家的技术分享和学习内容,使创新成为持续的核心竞争力。


将门创投基金专注于投资通过技术创新激活商业场景,实现商业价值的初创企业,关注技术领域包括机器智能、物联网、自然人机交互、企业计算。在近四年的时间里,将门创投基金已经投资了包括量化派、码隆科技、禾赛科技、宽拓科技、杉数科技、迪英加科技等数十家具有高成长潜力的技术型创业公司。


如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”: bp@thejiangmen.com

    

点击右上角,把文章分享到朋友圈
 

将门创投

让创新获得认可!

微信:thejiangmen

bp@thejiangmen.com


点击“❀在看”,让更多朋友们看到吧~


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存