当前位置:   article > 正文

鲁棒,抗遮挡的对柔性手抓取的物体6D姿态估计

机械手6d位姿

点击上方“3D视觉工坊”,选择“星标”

干货第一时间送达

标题:Robust, Occlusion-aware Pose Estimation for Objects Grasped by Adaptive Hands

作者: Bowen Wen, Chaitanya Mitash, Sruthi Soorian, Andrew Kimmel, Avishai Sintov and Kostas E. Bekris 

机构:Rutgers University

来源:ICRA 2020

编译 : Bill

审核:管培育

摘要

大家好,今天为大家带来的文章是Robust, Occlusion-aware Pose Estimation for Objects Grasped by Adaptive Hands

许多机械臂的操纵任务, 比如放置,手中灵巧操纵需要估计物体姿态。物体被机械手的严重遮挡给物体姿态估计带来更多挑战。此外,对于柔性手,手的状态更难得到。对此本文提出了一个基于深度图的方法,目标是鲁棒和快速地估计出手中物体的姿态。首先我们通过并行搜索并根据观测点云和柔性手的模型快速估计出柔性手的姿态, 以便将柔性手相关的点云从场景点云中去除。然后,全局匹配算法根据剩余点云产生多个物体姿态假设并将他们聚类。  基于物理推理,错误的物体姿态被排除。剩余候选姿态中得分最高的被选为最终的姿态估计输出。大量的合成和真实数据集上的实验表明了此方法在挑战性的场景和被用于多种物体时的高精度,计算高效性和鲁棒性。代码和原文中的数据集均已开源: https://github.com/wenbowen123/icra20-hand-object-pose

背景与贡献

物体姿态估计

随着近年来6D物体姿态估计的发展,对于放置在桌上的物体姿态估计取得了良好效果。然而机械臂抓取和操作的流程中,从桌上抓取物体只是第一步,抓取后物体姿态的估计影响了后续的精准操纵和放置。

我们提出的框架具有以下特点:

1. 高精度: 即使在ADD-S 5mm的界限下,也取得了高准确率。

2. 高效性: 它能在0.5-0.7秒内同时估计出柔性手和物体的姿态。柔性手的姿态估计也能用于闭环控制。

3. 鲁棒性: 它能应用于多种物体,包括缺乏纹理,有混淆背景的场景下。

由于此前没有抓取中物体姿态估计的数据集,我们还发布了模拟和真实世界采集的两个大型数据集,每张图片的物体姿态都附带标注,以供相关工作的表现评估。

算法流程

1.整体结构

这项工作中,我们的目的是通过相机拍到的深度图和被操纵物体的CAD模型,求出被操纵物体的姿态。关于操纵过程中用到的机械手,本文考虑更具挑战性的柔性手。因为对于此类柔性手,手的姿态无法通过机器人的前向动力学直接得到。需要高效并行的蚁群搜索算法求解机械手的姿态。之后手的姿态有三个用途: 1) 移除机械手相关的点云,得到物体相关的感兴趣区域;2) 通过手的姿态和手的模型建立概率模型,启发式搜索和3D全局配准产生备选物体姿态;3)借助机械手的姿态和物理先验,消除严重遮挡条件下物体姿态的含糊性,筛选并得到最佳的物体姿态。

图1 本文提出的框架  首先根据输入的RGBD点云和柔性手的模型计算出手的姿态。此后手部相关的点云从场景中去除以得到不完美的物体部分点云。物体和CAD模型的全局匹配算法,产生多个物体姿态候选。后续的筛选过程输出最佳的物体姿态。

2. 方法

2.1 柔性手的姿态估计

图2 本文考虑的Yale T42柔性手的自由度

根据前向动力学,我们可以得到手腕的姿态。本文所考虑的柔性手不能直接得到手指的姿态。因此我们首先需要求解柔性手各个手指的姿态。根据柔性手的运动约束和碰撞约束,我们采用高度并行化的蚁群粒子算法搜索求解手指的姿态。我们将手指可活动域进行离散化,每个粒子代表了一种手指姿态的可能性。每次进化迭代时,鼓励新的粒子会在上一轮得分高的区域附近采样。其中手指姿态得分的目标函数在下面描述。

算法1 PSO目标函数的计算

2.2 备选物体姿态假设的产生

柔性手的整体姿态确定后,我们可以移除机械手部分的点云. 由于深度图存在噪声,我们还建立带符号的距离函数场SDF并以此建立指数分布概率模型,表明任意一点属于物体部分的概率,来进行软分割。对于全局3D配准我们基于Super4PCS算法,找出观测点云和物体CAD模型中匹配的共面4点组。并根据匹配点对求解物体姿态。为了使算法更高效我们还做了部分改进。在共面4点基采样过程中,采样过程服从前面建立的概率分布,鼓励从较可能为物体点的区域采样。另一方面,我们对CAD模型构建八叉树以便快速寻找完全匹配的全等4点组。4点组和4点基需要满足全等对角线长度和夹角,同时两两点对需要满足PPF特征匹配以更好地剔除离群匹配。通过不同的采样我们可以得到多个可能的物体姿态估计放入备选列表并聚类。

图3 通过一对观测点云中物体上采样的共面4点基和CAD模型上找到的全等共面4点组, 可以求解得到一个物体姿态转换假设

2.4 备选物体姿态的筛选

物理推理被用来排除不符合物理规律的备选物体姿态。首先我们进行碰撞和触摸检测,如果物体通过假设姿态转换后的模型和姿态估计转换后手的模型有渗透关系或者距离太大而悬空, 则该备选姿态被排除。这部分可以通过SDF高效实现。第二,我们进行Z-Buffer视线遮挡检测。由于深度图是通过锥头相机拍到,每个像素点的深度点到相机原点的射线之间在一定噪声下不应该存在其他点。如果用备选姿态转换后的物体3D点云不满足这样的分布,那么它也被排除.。经过物理排除后,剩下的备选姿态具有最高LCP得分的作为最佳姿态输出。

主要结果

图4 模拟数据集上和当前SOA方法的对比。表中,+HS表示为对比方法装备我们提出的手姿态估计模块。+ICP表示用ICP进行局部姿态修正

图5 实验用到的物体和柔性手

图 6 真实数据集上和其他方法对比结果. 左: ADD-S 5mm界限下的姿态准确率. 右: 召回率-界限的曲线

图7 估计结果的例子

图8 消融实验

图9 各模块运行速度

相关资源

代码和数据集: 

https://github.com/wenbowen123/icra20-hand-object-pose

视频:

https://www.youtube.com/watch?v=jCt0-dJAvgI

点击阅读原文, 即可获取本文下载链接。

本文仅做学术分享,如有侵权,请联系删文。

下载1

在「3D视觉工坊」公众号后台回复:3D视觉即可下载 3D视觉相关资料干货,涉及相机标定、三维重建、立体视觉、SLAM、深度学习、点云后处理、多视图几何等方向。

下载2

在「3D视觉工坊」公众号后台回复:3D视觉github资源汇总即可下载包括结构光、标定源码、缺陷检测源码、深度估计与深度补全源码、点云处理相关源码、立体匹配源码、单目、双目3D检测、基于点云的3D检测、6D姿态估计源码汇总等。

下载3

在「3D视觉工坊」公众号后台回复:相机标定即可下载独家相机标定学习课件与视频网址;后台回复:立体匹配即可下载独家立体匹配学习课件与视频网址。

重磅!3DCVer-学术论文写作投稿 交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。

一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

▲长按加微信群或投稿

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的知识点汇总、入门进阶学习路线、最新paper分享、疑问解答四个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近2000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

 圈里有高质量教程资料、可答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~  

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/码创造者/article/detail/873151
推荐阅读
相关标签
  

闽ICP备14008679号