当前位置:   article > 正文

3D目标检测论文方法汇总 【2022部分持续更新中~_lift: learning 4d lidar image fusion transformer f

lift: learning 4d lidar image fusion transformer for 3d object detection

Automanous-3D-detection-methods

版权注释

该项目地址为:https://github.com/LittleYuanzi/awesome-Automanous-3D-detection-methods
2017~2020汇总部分由CSDN博主Little_sky_jty博主倾力攥写,2021部分我将对其进行维护更新为我个人所用,无任何商业目的,如有侵权,告知删除

前言

该项目主要在对近期(17年)开始的自动驾驶场景的目标检测方法做一个汇总,持续更新,也欢迎大家参与进来。为了方便表示,该项目仅仅针对自动驾驶场景,分类方法按照输入进行划分,特别地,我们也对论文实验对应的论文做出一定的标注。

在这里插入图片描述

keywords

inputs

按照传感器的输入: monocular: 单目   stereo: 双目  lidar: 点云 RGB-D: 深度图 
如果是多种传感器融合: image+lidar: 图像+点云  

对应实验数据集

用于标注该文章实验对应的数据集: kitti: KITTI   nuse: NuScence   waymo: Waymo   ATG4D: ATG4D   [lyft]: lyft [ScanNet]: ScanNet [SUN RGB-D]: SUN RGB-D [SceneNN]: SceneNN

代码

标注代码实现框架: Tensorflow: TensorFlow   PyTorch: PyTorch    

2017

推荐阅读
相关标签