当前位置:   article > 正文

DeepRoute Lab | AAAI22新工作:基于稀疏跨尺度注意力网络的高效LiDAR全景分割_点云全景分割

点云全景分割

By 元戎感知组

今天和大家分享工作的是自动驾驶中的点级别的全景分割感知任务。内容主要是解读我们组最新的一篇被AAAI22接收的点云全景分割的工作 Sparse Cross-scale Attention Network for Efficient LiDAR Panoptic Segmentation.

Introduction & Motivation

About Panoptic Segmentation

对于自动驾驶而言,仅仅是提取感兴趣物体的检测信息(位置、大小、速度和类别等)是不够的,这种信息只能描述一个驾驶场景中的部分信息,另一部分信息包括建筑物,树木、栅栏等非物体信息同样对驾驶的决策起着重要作用。其次,物体框级别的信息对于某些场景就不够用了,比如多段车场景等,这时候就需要精确到点级别的感知能力。

因此,除了检测任务,自动驾驶重同样有一个重要的任务——分割。其中点云语义分割的任务是要给点云中的每一个点打上一个标签,比如车辆、行人、树木、栅栏等等;而点云实例分割的主要任务是判断点是否属于一个物体,并且属于哪个物体,即给每个点打上所属物体的id标签。点云全景分割可以看做是点云语义分割和实例分割的结合,参考下图:

基于LiDAR点云的不同的分割任务【1】

Related Work

点云有一些特性:稀疏性(sparse),表面聚集性(surface-aggregated)。这使得处理全景分割这样的任务时会有一些问题:

  1. LiDAR只能照射到物体表面,因此对于一些大车来说,表面点距离其中心很远,往往会导致过分割,如下图b
  2. 有些距离很近的小物体,比如聚集的人群,往往又会在距离空间和特征空间上被错误的合并在一起,形成欠分割,如下图a,c
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/353978
推荐阅读
相关标签
  

闽ICP备14008679号