查看原文
其他

NeurIPS 2023 | 全新「机械手」算法:辅助花式抓杯子,GTX 1650实现150fps推断

PKU Hyperplane 北京大学前沿计算研究中心
2024-09-16

关键词具身智能


导  读

本文是对发表于 NeurIPS 2023 论文 GraspGF: Learning Score-based Grasping Primitive for Human-assisting Dexterous Grasping 的解读。该论文是由北京大学董豪超平面实验室完成,共同一作为计算机学院博士生吴天昊、吴铭东。


人类在执行动作(如抓取)时具有多样性,这项研究将人类的抓取多样性分解为“如何抓”以及“何时抓”,通过扩散模型来学习“如何抓”,进一步结合强化学习来学习“何时抓”。辅助人类在日常生活中实现对不同物体不同部位的多样化抓取。作者提出的方法能实现与人类的实时交互,并根据人类的行为进行自适应的调整。


以下内容首发于新智元。

论文链接:

https://arxiv.org/abs/2309.06038


项目主页:

https://sites.google.com/view/graspgf


项目视频:


新方法结合扩散模型和强化学习,将抓取问题分解为「如何抓」以及「何时抓」,平价显卡即可实现实时交互。



手是人类与世界交互的重要部分,手的缺失(如上肢残障)会大大影响人类的正常生活。

北京大学董豪团队通过将扩散模型和强化学习结合,使机械手能根据人手腕部的移动轨迹,自适应的抓取物体的不同部位,满足人类多样化的抓取需求。


有了这个机械手,只要动动手腕,机械手就能按照人类想要的方式抓起物体,比如抓取杯身和杯壁。


由于人类行为的复杂与多变性和真实世界物体的多样性,仅仅根据人手腕部的移动轨迹来不断预测人类想法是一件非常困难的事情。


新方法真正实现了灵巧的抓取,能在真实世界中对于不同的物体,不同的抓取姿态,不同的抓取轨迹进行泛化。


01

机械手如何明白人类的想法?

我们提出将人类的想法分解成两个部分:


1. 如何抓:考虑到人类和物体当前的相对姿势,机械手应该如何抓取物体?

2. 何时抓:机械手应该根据用户历史运动轨在何时、以什么速度执行抓取动作?


如何抓?


首先,如上图所示,新方法将学习人类想要「如何抓取物体」,定义为从一个包含各种抓取姿态的数据集中,学习抓取梯度场 Grasping Gradient Field(GraspGF)


基于当前人手腕部和物体的相对关系,GraspGF 会输出一个梯度,这个梯度代表最快提高「抓取可能性」的方向。这个梯度可以转化为对每个手指关节的原始控制,使手指能够通过不断迭代达到适当的抓取姿态。


这样的梯度场可以随着人手腕部和物体的关系的变化,而不断的输出新的梯度指示当前人类的抓取意图,即意向抓取的物体区域及抓取姿态。

GraspGF 随着手腕的旋转,不断调整抓取姿态


何时抓?

GraspGF的动作会导致提前合拢


然而,只知道「如何抓」并不够完备,如果不知道要「何时抓」(如上图所示),虽然最终的抓取姿态是合理的,但是在达到抓取姿态的过程中会和物体发生碰撞。


如上所示,为了解决「何时抓取」的问题,新方法还训练了一个基于强化学习的残差策略,它首先会输出一个「缩放动作」,根据手腕轨迹的历史,决定手指关节应该以多快的速度沿着原始动作的方向移动。


此外,因为原始策略是基于最终抓取姿态数据集离线训练得到的,原始策略并不了解环境的物理约束 ,残差策略还会输出一个「残差动作」来进一步校正原始动作。通过结合残差策略,模型能够通过残差策略学习到的「何时抓」更好地实现原始策略学习到的「如何抓」。


简单的奖励函数

该方法在奖励函数的设置上不需要过多的 human design,因为原始动作已经提供了一个比较好的「如何抓」的引导,在训练强化学习模型时,除了给定成功抓取和抓取后的高度变化奖励,仅仅只需要一个奖励函数去鼓励机械手跟随原始动作即可。


该方法的优势

该方法仅需要成功抓取的抓取姿态数据集用于训练,与需要专家演示的方法相比,不需要大量的人工标注或者工程工作。


GraspGF 借助了扩散模型强大的条件生成建模能力,这使它能够根据新颖的用户意图输出有效的原始动作。


残差学习的设计改善了强化学习探索效率低下的问题,提升了强化学习模型在未见过物体和轨迹上的泛化能力。


02

结  果

最终在4900多个物体,200条不同的人类移动轨迹上,新方法都优于基准。


该方法的最终的抓取姿态相比于基线更符合人类的抓取意图。


此外,该方法在抓取过程中对物体造成的扰动要小于其他基准。


经过测试,该模型在 GTX1650 的显卡上,能达到 150fps 的推断速度,能做到与人类的实时交互,也许未来能真正用于辅助手部缺失的人更好地进行日常生活。


超平面实验室

Hyperplane Lab

超平面实验室隶属北京大学前沿计算研究中心,由董豪老师带领,其研究方向主要涉及计算机视觉、智能机器人、具身智能和开源 AI 软件。实验室目前的研究方向包括:机器人泛化操纵、导航及具身大模型等;研究旨在打造机器人型号无关、自主决策的通用具身智能系统,以加速机器人普适化。


实验室 PI 简介:董豪 助理教授

实验室相关新闻:#PKU Hyperplane

扫码浏览实验室主页

https://zsdonghao.github.io/


本文转载自新智元



Hyperplane近期科研动态



—   版权声明  —

本微信公众号所有内容,由北京大学前沿计算研究中心微信自身创作、收集的文字、图片和音视频资料,版权属北京大学前沿计算研究中心微信所有;从公开渠道收集、整理及授权转载的文字、图片和音视频资料,版权属原作者。本公众号内容原作者如不愿意在本号刊登内容,请及时通知本号,予以删除。

点击“阅读原文”转论文地址

继续滑动看下一个
北京大学前沿计算研究中心
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存