查看原文
其他

RA-L with ICRA 2021 入选论文导读


ICRA (International Conference on Robotics and Automation) 是机器人领域最顶级的国际会议,每年都会吸引大批全球顶尖的机器人学者参加。

今年 ICRA 有效投稿为4005篇(含ICRA 2021和RA-L wth ICRA 2021),共有1946篇论文被接受,接受率为48.0%。其中 AIRS 入选19篇,涵盖机器人运动控制、多模态感知、多机器人协同、多自由度动力学控制等方向。上期推文我们为大家介绍了 AIRS 入选 ICRA 2021的论文本期推文将解读入选 RAL with ICRA 2021的论文。



机器人运动控制


1. 面向长远航行的V稳定性的节能控制方法

V-stability Based Control for Energy-saving Towards Long Range Sailing


对于长远航行的无人帆船机器人,其能源的供给能力是一项重要的挑战,倘若施加持续变化的控制信号对自主帆船进行控制,会导致较高的能源消耗。此外,结合复杂的风场,水流场以及其他海洋环境,使得无人帆船的控制相比其他的无人艇要更加复杂。直接简单的减少控制指令的变化频率会导致较大的轨迹跟踪误差,甚至偏离导航航线。

本文章提出了一种基于 V 稳定性的帆船节能控制方法(E-saving),该方法可以在确保帆船航行稳定的前提下,对控制器指令进行适当规划调节。此外,该方法可在期望的航迹跟踪误差以及能源消耗之间取得一个均衡,使得自主帆船航行在一个可接收的路径区域同时保证较小的能源消耗。

E-saving 方法在仿真环境和实验中都进行了测试验证。其中在实验中我们使用了 OceanVoy 自主帆船。结果表示,相较于V稳定性方法,节能控制方法(E-saving)可以减少11%的能量消耗。这使得我们的方法将会在长远航行过程中可以较大的提高航行距离。

本文第一作者为香港中文大学(深圳)理工学院三年级博士生孙钦波,其主要研究方向为机器人能源规划以及自主帆船机器人系统,其导师为钱辉环教授。本文通讯作者钱辉环教授为 AIRS 副院长、香港中文大学(深圳)理工学院助理教授。他的研究方向包括机器人与智能系统,近期主要围绕海洋机器人、微纳机器人、智能艺术系统开展。


全文链接:

https://ieeexplore.ieee.org/document/9349135


2. 磁控螺旋形微纳米机器人的动力学建模

Dynamic Modeling of Magnetic Helical Microrobots


由低强度旋转磁场驱动的磁控螺旋形微纳米机器人在生物医学领域具有巨大的应用潜力。磁控螺旋形微纳米机器人的运动动力学对其智能控制和在复杂环境中执行任务至关重要。这种微纳米机器人可以将旋转运动转化为沿其中心轴的平移运动。它们在液体环境中的运动动力学受到许多因素的影响,比如,螺旋的几何形状、螺旋结构表面涂覆的磁层的厚度和磁化强度、运动所处流体环境的粘度、以及螺旋结构表面的亲疏水性。在本文中,我们建立了一个全面的动力学模型来分析由刚性螺旋鞭毛组成的磁控螺旋形微纳米机器人在液体环境中的运动特性。综合分析了这种磁控螺旋形微纳米机器人的不同设计对其游动速度、步出频率和最大速度的影响,为磁控螺旋形微纳米机器人的设计提供了宝贵的指导。我们的结果也得到了许多实验研究的支持。

本文第一作者为 AIRS 副研究员王潇朴。本文通讯作者为南科大胡程志教授与 ETH Zurich 的 Bradley Nelson 教授


全文链接:

https://ieeexplore.ieee.org/abstract/document/9314226


多模态感知


1. 基于二阶段无监督学习的低光照图像增强方法

A Two-stage Unsupervised Approach for Low light Image Enhancement


由于基于视觉的感知方法通常是建立在环境处于正常光照的前提之下,因此将这些感知方法运用在黑暗环境中会出现严重的安全问题。近年来,人们提出了一些基于深度学习的低光照增强方法,这些方法通过惩罚低光照图像与正常光照图像像素级损失来增强低光照图片。但是,这些方法大多存在以下问题:1)需要低光照图像以及与之配对的正常光照图像来进行训练;2)这些方法对极暗的图像效果极差;3)光照增强后会增加图像噪点。为了缓解这些问题,本文提出了一种二阶段无监督方法,将低光照图像增强分解为预增强和后处理两个阶段。在第一阶段基于 Retinex theory,使用 adaptive tone mapping 的方法来对 illumination map 进行变换,获得初步的增强结果。在第二阶段利用对抗学习的细化网络,并结合无监督图像增强常用的一些损失(image reconstruction loss/perceptual loss/total variation/adversarial loss)来进一步提高图像质量。实验结果表明,在四个基准数据集上,我们的方法都优于以前的方法。此外,在低光照条件下,我们的方法可以显著提高特征点匹配和同时定位与映射

本文第一作者为 AIRS 助理研究员胡君杰,目前他的研究方向包括基于视觉的多机器人感知系统,计算机视觉。本文通讯作者林天麟教授为智能机器人研究中心主任、香港中文大学(深圳)助理教授,他也是 IEEE 高级会员。林教授的研究方向包括多机器人系统,新型移动机器人及人机协作。


全文链接:https://arxiv.org/abs/2010.09316


2. RigidFusion:在有大型运动物体的场景中进行机器人定位和室内重建

RigidFusion: Robot Localisation and Mapping in Environments with Large Dynamic Rigid Objects


This work presents a novel RGB-D SLAM approach to simultaneously segment, track and reconstruct the static background and large dynamic rigid objects that can occlude major portions of the camera view. For example, in the task of mobile manipulation, the manipulated can be large and close to camera, therefore causing large occlusion. Previous approaches treat dynamic parts of a scene as outliers and are thus limited to a small amount of changes in the scene, or rely on prior information for all objects in the scene to enable robust camera tracking. Here, we propose to treat all dynamic parts as one rigid body and simultaneously segment and track both static and dynamic components.

We, therefore, enable simultaneous localisation and reconstruction of both the static background and rigid dynamic components in environments where dynamic objects cause large occlusion. We evaluate our approach on multiple challenging scenes with large dynamic occlusion. The evaluation demonstrates that our approach achieves better motion segmentation, localisation and mapping without requiring prior knowledge of the dynamic object's shape and appearance.

The first author is Ran Long, he is currently a 2nd year PhD student in the SLMC group from the University of Edinburgh and is supervised by Professor Sethu Vijayakumar FRSE. His research interest is estimating the trajecotries of multiple rigid bodies from RGB-D sequences using the understanding of robots’ actions, such as robot proprioception or kinematic.

The corresponding author of this paper is Professor Sethu Vijayakumar. Professor Vijayakumar is Professor of Robotics at the University of Edinburgh. He directs one of our International Collaboration Joint Project titled [Mobile Collaborative Robots: Addressing Real World Challenges] between the University of Edinburgh and AIRS. His research interest spans a broad interdisciplinary curriculum involving basic research in the fields of robotics, statistical machine learning, motor control, planning and optimization in autonomous systems and computational neuroscience


(上下滑动查看中文介绍)

这项工作提出了一种新颖的RGB-D SLAM方法,可以同时分割,跟踪和重建静态背景和可能遮挡相机视图主要部分的大型动态刚性物体。例如,在移动操纵的任务中,操纵的物体可能很大并且靠近相机,因此会造成较大的遮挡。先前的方法将场景的动态部分视为离群值,因此仅限于场景中的少量变化,或者依赖于场景中所有对象的先验信息以实现可靠的相机跟踪。在这里,我们建议将所有动态部分视为一个刚体,并同时对静态和动态零件进行分段和跟踪。因此,我们可以在动态物体引起较大遮挡的环境中同时对静态背景和刚性动态分量进行本地化和重建。我们在具有大动态遮挡的多个具有挑战性的场景上评估我们的方法。实验结果表明,我们的方法无需事先了解动态对象的形状和外观即可实现更好的运动分割,机器人定位和场景稠密重建。

本文的第一作者为爱丁堡大学博士二年级的隆冉,他的导师是 Sethu Vijayakumar 教授。他的研究兴趣为在动态环境中的机器人定位取环境重建,同时利用机器人自身的本体感受去帮助处理复杂的动态环境。

本文的通讯作者为 Sethu Vijayakumar 教授,他是爱丁堡大学信息学院终身教授。Sethu Vijayakumar 教授是我院国际合作项目的项目负责人之一,他的研究领域涉及机器人、统计机器学习、运动控制、自主系统规划和优化以及计算神经科学等。


Full text / 全文链接:

https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9380340


3. 模仿医学临床诊断流程的自主超声机器人

Towards Fully Autonomous Ultrasound Scanning Robot with Imitation Learning based on Clinical Protocols


超声成像由于占地面积小和成本低等优势,在现代临床医学中扮演着重要的角色,目前它已被广泛应用于医院常规体检和作为介入治疗的辅助成像手段。然而,超声扫描的结果在很大程度上依赖于临床医生操的技能和经验,这使得不同医生诊断结果不一致甚至发生错误检测,因而使用全自主的超声扫描机器人辅助医生开展检查可能对提高扫描结果的可重复性和可靠性可能是一个富有前景的解决方案。

因此我们提出了一个基于模仿学习框架的自主超声机器人来实现流程化自主扫描。基于目标器官颈动脉的检查程序,文章设计了一个基于图像矩特征的视觉伺服控制器,用于超声平面内和超声平面外的伺服任务。此外,我们还设计了一步探索策略(OSE)来提高机器人在两个特征之间转移的鲁棒性。所提出的方法均在医学模型和真实人体上进行了实验和验证。实验结果表明,OSE能够显著提高超声扫描的完成率,使得整体完成率从22.2%提高到84.6%


本文第一作者为香港中文大学(深圳)硕士研究生黄彦玮,目前他的研究方向主要为自主超声机器人和机器人手眼力协同。本文通讯作者孙正隆教授为 AIRS 智能机器人研究中心副主任、香港中文大学(深圳)助理教授、理工学院生物医学工程专业负责人。孙教授的研究方向包括手术医疗机器人,人机交互与人机协作,多模态感知和仿生机器人。


全文链接:

https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=9372850


4. UnFise:面向360度全景图像深度估计的单向融合

UniFuse: Unidirectional Fusion for 360 Panorama Depth Estimation


360°全景相机随着相机技术达到发展变得越来越普及。360°全景图像能提供环境全方位的信息,因此在视觉感知相比传统透视投影图像更有优势。近年来基于360°全景图的场景感知,如深度估计、视觉定位、语义分割等,越来越受到关注;与传统的透视投影图像不同,360°全景图视场更广,其常规表示通常存在畸变或者不连续。针对传统图像的深度学习方法用于360°全景图虽然能取得一定效果,但往往不够好的。本项目针对基于360度全景图像深度估计提出了一种立方体投影图到等距投影图的单向融合网络,能够较好的解决全景图畸变和边界不连续的问题,实现了基于图像的高精度全景重建。

本研究的亮点在于提出了一种简单有效的针对全景图像的单向融合学习算法;算法空间复杂度比前人方法的一半,推理速度也提高了10倍,深度估计精度提高了4.5%。

研究应用前景为自主机器人感知和导航、全方位三维重建、VR房地产和云上展会等等。

本文第一作者为香港中文大学(深圳)四年级博士研究生蒋华烈,其导师是黄锐教授。博士期间,他开展各种不同情形下的深度估计研究,包括室内的监督深度估计,室内的无监督深度估计还有球形全景图像的深度估计。本文通讯作者黄锐教授为 AIRS 计算机视觉研究中心副主任、香港中文大学(深圳)理工学院副教授。黄教授在数据降维和子空间分析、可变形模型、概率图模型等方法以及它们在计算机视觉、模式识别、(医学)图像处理中的应用等方面做过大量研究工作。目前研究兴趣集中在计算机视觉在机器人领域的应用。


全文链接:

https://ieeexplore.ieee.org/document/9353978

代码:

https://github.com/alibaba/UniFuse-Unidirectional-Fusion


多机器人协同


1. 基于语义直方图的大环境下多机器人实时全局定位的图匹配

Semantic Histogram Based Graph Matching for Real-Time Multi-Robot Global Localization in Large Scale


多机器人可视化实时定位与测绘(MR-SLAM)的核心问题是如何高效、准确地进行多机器人全局定位(MR-GL)。这个问题的难点有两方面,首先是视点差异较大,全局定位困难。基于外观的定位方法在视角差异较大的情况下往往会失败。近年来,基于语义信息的语义图被用来克服大视角差异的问题。

然而,这种方法非常耗时,特别是在尺度比较大的环境中。这就引出了第二个难题,即如何进行实时的全局定位。本文提出了一种基于语义直方图的语义图匹配方法,该方法对视角差异具有比较高的鲁棒性,能够实现实时的语义图匹配。在此基础上,我们开发了一个能够准确、高效地对同构和异构机器人执行MR-GL的系统。实验结果表明,该方法比基于随机漫步的语义描述符速度快30倍左右。该方法的全局定位精度达到95%,而最新对标的方法的定位精度为85%。下图是我们全局定位系统的流程示意图。

本文第一作者为 AIRS 研究助理郭溪越,目前他的研究方向包括基于视觉的多机器人 SLAM 系统。本文通讯作者林天麟教授为 AIRS 智能机器人研究中心主任、香港中文大学(深圳)助理教授,他也是 IEEE 高级会员。林教授的研究方向包括多机器人系统,新型移动机器人及人机协作。


全文链接:https://arxiv.org/abs/2010.09297


2. 多机器人协同操作的分布式能力感知自适应控制

Decentralized Ability-Aware Adaptive Control for Multi-Robot Collaborative Manipulation


Multi-robot collaboration is extremely challenging due to the different kinematic and dynamics capabilities of the robots, the limited communication between them, and the uncertainty of the system parameters. To address these challenges, we propose a Decentralized Ability-Aware Adaptive Control (DA3C) method, in which the force capability of each robot is maximized by exploiting its null-space motion, while the designed adaptive controller enables decentralized coordination according to the capability of each robot. Simulation results show the proposed method can achieve online adaptation and accurate trajectory tracking irrespective of the low-level controllers, and can be used for heterogeneous multi-robot systems.

The first author of this paper is Lei Yan, who is currently a postdoc at UoE in UK and he is the strand leader of “Multi-Agent Collaborative Manipulation” of the international joint research project between AIRS and UoE. His research interests include impact-aware manipulation and decentralized planing and control for multi-robot system.

The corresponding author of this paper is Professor Sethu Vijayakumar. Professor Vijayakumar is Professor of Robotics at the University of Edinburgh. He directs one of our International Collaboration Joint Project titled [Mobile Collaborative Robots: Addressing Real World Challenges] between the University of Edinburgh and AIRS. His research interest spans a broad interdisciplinary curriculum involving basic research in the fields of robotics, statistical machine learning, motor control, planning and optimization in autonomous systems and computational neuroscience. 


(上下滑动查看中文介绍)

由于多机器人系统中各个机器人的运动学和动力学能力不同,它们之间的通信受限以及系统参数存在不确定性,因此多机器人协同操作具有非常大挑战性。为了解决上述问题,我们提出了一种分布式能力感知自适应控制(DA3C)方法,该方法通过利用机器人的零空间运动来最大化每个机器人的操作能力,同时设计的分布式自适应控制器可以根据各个机器人的能力进行协调控制。  仿真结果表明,所提出的方法可以实现对机器人控制输入的在线自适应调节和对目标物体轨迹的精确跟踪。该方法可以用于异构多机器人系统,同时不受限于系统中机器人的数量以及各个机器人的底层控制器。

本文第一作者为英国爱丁堡大学的博士后研究员闫磊。他是 AIRS与英国爱丁堡大学的国际联合研究项目“移动协作机器人:解决现实世界的挑战”中“多机器人协同操作”分支的小组长, 目前他的研究领域为碰撞感知操作以及分布式多机器人规划与控制。

本文的通讯作者为 Sethu Vijayakumar 教授,他是爱丁堡大学信息学院终身教授。Sethu Vijayakumar 教授是我院国际合作项目的项目负责人之一,他的研究领域涉及机器人、统计机器学习、运动控制、自主系统规划和优化以及计算神经科学等。


Full text / 全文链接

https://ieeexplore.ieee.org/document/9357952


多自由度动力学控制


1. 辅助COVID-19口咽拭子采样的高冗余刚柔耦合机器人设计与控制

Design and Control of a Highly Redundant Rigid–Flexible Coupling Robot to Assist the COVID-19 Oropharyngeal-Swab Sampling


新型冠状病毒性肺炎(COVID-19)的爆发已导致全球范围内的死亡和发病。口咽拭子采样在世界范围内被广泛用于诊断 COVID-19。为了避免医护人员受到病毒的感染,我们开发了9自由度刚柔耦合机器人来协助 COVID-19 口咽拭子采样,该机器人有望降低风险,并使医护人员摆脱长期重复的采样工作。该机器人由视觉系统、UR5机械臂、微型气动执行器和力感知系统组成。与刚性采样机器人相比,所开发的力感刚柔耦合机器人可以以更安全、更柔软的方式简化口咽拭子采样程序。此外,还提出了一种基于变参数归零神经网络的优化方法,用于9自由度冗余机械臂的运动规划。所开发的机器人系统通过在口腔模型和志愿者上的口咽拭子采样进行了实验验证,取得了良好的实验效果。

图1. 9DOFs 冗余刚柔耦合机器人

图2. 高冗余刚柔耦合咽拭子机器人控制框架


本文第一作者为 AIRS 客座博士生胡英柏和香港中文大学(深圳)一年级硕士研究生李坚,目前胡英柏博士的研究方向包括机器人系统的设计和控制,李坚的研究方向包括机器人系统的控制。本文通讯作者陈勇全博士为 AIRS 无人系统研究中心主任、香港中文大学(深圳)机器人与智能制造研究院研究员。陈博士的研究方向包括机器人系统设计与控制、多智能体协同感知与控制、智能网联交通。


全文链接:

https://ieeexplore.ieee.org/document/9363527


2. 面向过顶支撑任务的外肢体建模与平衡控制

Modeling and Balance Control of Supernumerary Robotic Limb for Overhead Tasks


过顶支撑操作任务通常需要两个操作员之间的协作,这在密闭空间(例如舱体)中变得十分具有挑战性。外肢体机器人(SuperLimb)作为一种有前途的可穿戴机器人解决方案,可以在更广阔的工作空间,更多样的操作功能和更安全的工作条件方面提供辅助。但是,迄今为止,以人为中心的 SuperLimb 相互作用机制的安全性问题很少得到研究,尤其是在人的站立平衡方面。本研究提出了一种平衡控制方法,通过该平衡控制方法,仅需一位操作员既可在 SuperLimb 的帮助下通过可调的相互作用力和支撑力调节来完成架空任务。本研究对 SuperLimb 与人的交互进行建模,并采用基于 QR 分解的动力学控制方法(也称为QR分解,其中将矩阵分解为正交矩阵和上三角矩阵)来解耦 SuperLimb 和机器人的关节扭矩以及相互作用力,从而实现对过顶支撑力的独立调节,以确保操作员与 SuperLimb 的相互作用力处于安全区域。本研究采用测力板用于测量 CoP 位置,作为站立平衡的一种评估方法。通过实验数据学习临界水平推力,以指导平衡控制器。实验中,外肢体穿戴在操作员背部,并对头顶物体提供必要的支撑力,同时允许操作员在下方自由移动。


本文第一作者罗健文为 AIRS 特种机器人研究中心项目负责人、香港中文大学(深圳)机器人与智能制造研究院副研究员。目前他的研究方向包括多关节机器人建模与动力学控制、腿式移动平衡机理、穿戴式外肢体机器人感知与人机交互控制。本文工作与麻省理工大学 H. Harry Asada 教授合作开展,通讯作者为南科大付成龙教授。


全文链接:

https://ieeexplore.ieee.org/document/9384151


* 特别鸣谢论文作者提供相关图文内容


相关阅读:

AIRS 共19篇论文入选 ICRA 2021,精彩论文解读在此

人物专访 | 林天麟教授,科研中探险,不确定是有趣的源泉

招聘 | AIRS智能机器人研究中心招研究员、博士后、博士生、研究助理

讲座回顾 | 陈勇全博士:无人系统赋能新型智慧城市建设:研究和应用探索

招聘 | 招博士后、研究助理、客座实习生

AIRS × UoE 移动协作机器人:解决现实世界的挑战

IROS 2020 | 从单目视频中无监督学习深度和帧间运动中的光度误差深入分析



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存