当前位置:   article > 正文

ICRA 2022 | CaTGrasp: 从模拟器中学习类别级的任务相关的抓取姿态

catgrasp

点击上方“3D视觉工坊”,选择“星标”

干货第一时间送达

ea8940fb1fcb095a138120c3dc9cac56.png

作者丨泡泡机器人

来源丨泡泡机器人SLAM

标题:CaTGrasp: Learning Category-Level Task-Relevant Grasping in Clutter from Simulation

作者: Bowen Wen, Wenzhao Lian, Kostas Bekris, Stefan Schaal

机构:Intrinsic, Rutgers University

来源:ICRA 2022

编译 : Billy

审核:金阳    

5aaec7e229d05d110047a2e13c915fc3.png

摘要

18a01cfd802f42611e90adfba8464a02.png

大家好,今天为大家带来的文章是 CaTGrasp: Learning Category-Level Task-Relevant Grasping in Clutter from Simulation

与任务相关的抓取对于机器人操纵至关重要,其中, 下游的操作任务限制了一组有效的抓取。然而,学习如何执行这项任务具有挑战性,因为与任务相关的抓取标签很难定义和注释。对于建模的正确表示或用于执行任务相关抓取的现成工具也没有达成共识。这项工作提出了一个框架来学习针对物体的任务相关抓取,而不需要耗时的现实世界数据收集或人工标注。为了实现这一点,整个框架仅在模拟中进行训练,包括具有合成标签生成的监督训练和基于自我监督的机械爪和物体的交互。在这个框架的背景下,本文提出了一种新颖的、以对象为中心的类级别的统一表示方法,它允许在对象实例之间建立稠密的点对点匹配,并将任务相关的抓取经验转移到新的测试实例上。我们在模拟和现实世界的两种设置下对杂乱环境下的工业对象的任务相关抓取进行了大量的实验,证明了所提出框架的有效性。代码和数据已发布。

Arxiv: https://arxiv.org/abs/2109.09163

代码和数据集: https://github.com/wenbowen123/catgrasp

视频: https://www.youtube.com/watch?v=rAX-rFSKAto

fd0e6a5ab6f3f1bac4530cb06a88d6cb.png

背景与贡献

bfa0b152bee447d51e452a284b349e21.png

本文有以下贡献:

1. 一种学习类级别、任务相关的新框架, 能根绝下游的操作任务,从密集杂乱的物体堆中选择最佳抓取。据作者所知,这是第一个能针对密集杂乱的工业物体, 无需人工标注而学习任务相关的抓取姿态的工作

2. 与以往的学习任务相关的稀疏关键点操作的方法不同,此工作在 3D空间对物体点云中逐点进行任务相关性的建模。为此,在模拟器中手和物体进行自监督的交互. 其中对接触点的交互经验用热力图做表征。这种稠密的3D表示避免了人工标注3D关键点的成本

03c957277cd7c8c9c2a69d82d608c89d.png

843532ed95c4a8eaabfc0d9fe9f3475f.gif

009322d984cb7eb925afbc8c4cc1e990.png

算法流程

54f8e855eeff6f701162387e6389f33c.png

1.问题陈述

我们考虑的是常见的工业场景: 相同类型的未曾见过的新型物体被收集到一个储物箱中,形成一个密集的杂乱堆。目标是计算与下游任务相关的6D 抓取姿势, 使得不仅能稳定抓取, 同时抓取后与下游的放置任务相容。下面列出了对框架的输入:

1) 属于同一类别的3D 模型集用于离线训练。该模型集不包括任何 测试阶段的新颖物体.

2) 对应于该类别的下游放置任务(如将螺母放到螺钉上),包括匹配的容器物体和对任务成功的评判标准

3) 在测试时, 深度相机得到的深度图像

2. 方法

离线阶段,给定同一类别的训练3D模型集,合成的数据集在模拟器中生成, 并用于训练NUNOCS Net, Grasping Q Net和3D U-Net。然后, 在模拟器中的自我交互试错提供了机械爪和物体的接触经验。该经验总结为任务相关性的热力图表征。统一的NUNOCS表征使得同一类的各个物体任务相关知识整合到一起。在现测试阶段,类级别的知识通过NUNOCS得到的稠密匹配和9D类级别姿态从统一的NUNOCS空间转换到新颖的测试物体点云空间,实现带语义的任务相关抓取

cd055c7f7e65a52c76de7af2bdafe166.png

2.1 统一类级别的NUNOCS表征

受NOCS的启发,本文提出提出了Non-Uniform Normalized

Object Coordinate Space (NUNOCS) 表示。给定一个物体模型,所有的点沿着每个维度都归一化,驻留在一个单位立方体中

921344759c8a08d1793508c45e0f18ae.png

这些训练集的3D模型除了用于虚拟训练集的合成,还用于创建类别级的代表模板模型。为此每个模型M转换到NUNOCS空间,同时我们把距离所有其他模型的Chamfer distance最小的物体选择为该类级别的模板,用于后续整合各个训练集物体的任务相关性的热力图和存储抓取姿态分部的密码本。

给定点云输入,NUNOCS Net旨在预测点云在NUNOCS空间中的位置,该网络基于pointnet设计。训练损失函数采用softmax cross entropy考虑到分类问题减少了求解的空间维度。基于观测到的点云和预测的NUNOCS空间的点云,两者的转换可以通过RANSAC求解得到类级别的6D转换和3D的维度变换。与此前提出的NOCS求解的7D姿态(6D转换和1D的维度变换)相比,本文提出的NUNOCS允许各个维度独立进行尺度变换,从而在规范化空间中得到更准确的稠密点对匹配,如下图所示,颜色近似度表示点对匹配的相似度。

03187cae1beac7d6c78c7dbc123bede7.png

2.2 学习稳定抓取

离线训练时,抓取姿势从每个对象实例的点云周围根据均匀分布采样,从而保证全面覆盖物体周围可行的抓取空间。每个抓取姿态在模拟器中进行评估,为了得到连续的概率分布P(G),我们对每个抓起姿态进行50次随机的微小扰动,计数成功率。直觉的理解是一个抓取姿态的稳定性和鲁棒性应该足以承受微小的噪声扰动。所有抓取姿态样本生成后用于两个用途:

1)给定之前得到的每个训练3D模型到规范化NUNOCS空间的转换,他们的抓取姿态分布得到整合并集成到该类的代表模板。测试时,一旦获得新颖物体到NUNOCS空间的转换,我们可以将继承的抓取姿态分布迁移到新颖物体空间,从而得到更全面的抓取姿态采样,甚至包括那些无法从单视角相机观测到的面(无法从点云在线采样)。

2)抓取姿态和模拟器中得到的P(G)分别作为输入和标签用于训练Grasping Q Net。

3f3283ffee59576d9e969856848d039e.png

2.3 自监督学习任务相关性抓取区域

和以往需要人工收集真实世界数据并进行人工标注不同,我们能通过在模拟器中自学得到任务相关性。给定一个抓取姿态,我们找到机械爪和物体的接触点,并在模拟抓取以及下游操作任务,进而更新该区域接触点的统计信息。当进行足够多的抓取姿态模拟后,整个过程中机械爪和物体的接触经验积累得到下面的热力图,表征任务相关性。

170898c0b8dc0e12b36e4e2ce2e76a2b.png

91b7e432cc5f42992d8bb89cdc83ae14.png

e5f33fedfa185cfed58386c8b32e2ccf.png

主要结果

18badeef2165443cef2e2d11dbb8faf8.png

本节旨在通过模拟实验和真实世界实验回答3个问题:i)所提出的NUNOCS规范化表达是否具有足够的表达性和可靠性足以泛化到一个类别中的各种对象实例?ii) 仅在模拟器中训练并直接推广到真实世界时,求解任务相关的抓取表现如何?iii) 提出的类别级先验知识学习是否也有利于抓取的稳定?我们提出的方法对比了以下基线方法:

1)PointNetGPD:一个 state-of-the-art method 鲁棒抓取方法

2)Ours-NA:我们提出的方法变种,不考虑任务相关性而只在乎抓取稳定性

3)Ours-NOCS:我们提出的方法变种,用NOCS作为类级别的统一空间表达

e7ec2078e3ca40fea4b40d6a76ef7e27.png

3763c5a8fc4ee32f04754ded8823c1e8.png

8600d3689d13df2277e9be1fefc9309a.png

95a676c143ce3a96f3d36bba0f3e811d.png

相关资源

08567f37d0f21ee6d87e4e70b52e883c.png

代码和数据集: 

https://github.com/wenbowen123/catgrasp

视频:

https://www.youtube.com/watch?v=rAX-rFSKAto

本文仅做学术分享,如有侵权,请联系删文。

干货下载与学习

后台回复:巴塞罗自治大学课件,即可下载国外大学沉淀数年3D Vison精品课件

后台回复:计算机视觉书籍,即可下载3D视觉领域经典书籍pdf

后台回复:3D视觉课程,即可学习3D视觉领域精品课程

3D视觉精品课程推荐:

1.面向自动驾驶领域的多传感器数据融合技术

2.面向自动驾驶领域的3D点云目标检测全栈学习路线!(单模态+多模态/数据+代码)
3.彻底搞透视觉三维重建:原理剖析、代码讲解、及优化改进
4.国内首个面向工业级实战的点云处理课程
5.激光-视觉-IMU-GPS融合SLAM算法梳理和代码讲解
6.彻底搞懂视觉-惯性SLAM:基于VINS-Fusion正式开课啦
7.彻底搞懂基于LOAM框架的3D激光SLAM: 源码剖析到算法优化
8.彻底剖析室内、室外激光SLAM关键算法原理、代码和实战(cartographer+LOAM +LIO-SAM)

9.从零搭建一套结构光3D重建系统[理论+源码+实践]

10.单目深度估计方法:算法梳理与代码实现

11.自动驾驶中的深度学习模型部署实战

12.相机模型与标定(单目+双目+鱼眼)

13.重磅!四旋翼飞行器:算法与实战

14.ROS2从入门到精通:理论与实战

重磅!3DCVer-学术论文写作投稿 交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、多传感器融合、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。

一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

210e36499a4c56fe68817d4d6fb4d2e9.png

▲长按加微信群或投稿

d4e46c8960c6fb09c7374a8468db2132.png

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列三维点云系列结构光系列手眼标定相机标定、激光/视觉SLAM、自动驾驶等)、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答五个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近5000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

99ce4cd0b6cb64448a9849854be60f1a.png

 圈里有高质量教程资料、答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~  5edac4d9cb8a59c8ea2a25b203cf026f.gif

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/128152
推荐阅读
相关标签
  

闽ICP备14008679号