赞
踩
论文地址:BEVFusion: Multi-Task Multi-Sensor Fusion with Unified Bird’s-Eye View Representation
项目地址:https://github.com/mit-han-lab/bevfusion
conda create -n pytorch-bev python=3.8
conda activate pytorch-bev
conda install pytorch==1.10.1 torchvision==0.11.2 torchaudio==0.10.1 cudatoolkit=11.3 -c pytorch
python # 3.8.16
import torch
torch.__version__ # 1.10.1
torch.version.cuda # 11.3
torch.cuda.is_available() # True
exit()
pip install Pillow==8.4.0
pip install tqdm
pip install torchpack
pip install mmcv==1.4.0 mmcv-full==1.4.0 mmdet==2.20.0
pip install nuscenes-devkit
conda install mpi4py==3.0.3
pip install numba==0.48.0
pip install numpy==1.23.0
pip uninstall setuptools
conda install setuptools==58.0.4
注意:OpenMPI是不能用pip和conda下载的,我这里主要需要参考这篇文章下载OpenMPI。
首先去OpenMPI官网下载所需要的版本。例如,将最新版本 openmpi-4.0.4.tar.bz2 文件放到你个人用户目录下的任一个文件夹。
tar -xjf openmpi-4.0.4.tar.bz2
mkdir software # 新建openmpi-4.0.4的安装目录
cd openmpi-4.0.4 # 进入解压后的目录
./configure --prefix=/home/user/software/openmpi-4.0.4 #./configure --prefix="安装目录所在的绝对路径"
make all install # 安装全部
vim ~/.bashrc # 使用vim打开文件.bashrc,按i进入编辑状态
然后把下面的环境配置复制到.bashrc最后面,注意环境配置中的绝对路径需要与你的环境中的保持一致。
export PATH=/home/user/software/openmpi-4.0.4/bin:$PATH
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/user/software/openmpi-4.0.4/lib:$LD_LIBRARY_PATH
export LIBRARY_PATH=/home/user/software/openmpi-4.0.4/lib:$LIBRARY_PATH
export INCLUDE=/home/user/software/openmpi-4.0.4/include:$INCLUDE
export MANPATH=/home/user/software/openmpi-4.0.4/share/man:$MANPATH
保存关闭.bashrc文件之后,使用以下命令保存环境变量。
source ~/.bashrc # 使环境变量设置起作用
重新新进入shell之后直接用以下命令来查看openmpi版本。
mpiexec -V # 查看openmpi版本
注意:openmpi安装成功后可以直接删除安装文件夹/openmpi-4.0.4和安装包openmpi-4.0.4.tar.bz2。
git clone https://github.com/mit-han-lab/bevfusion.git
把 mmdet3d/ops/spconv/src/indice_cuda.cu 文件里面所有的4096改为256
cd bevfusion
python setup.py develop
在NuScenes 3D object detection dataset下载nuscenes数据集安装包,请记住下载检测数据集和地图扩展(用于BEV地图分割)。
当然,如果在官网下载麻烦的话,可以参考这篇博客使用百度网盘或者迅雷网盘进行下载。
在官网下载nuscenes数据集后,并在bevfusion文件夹下组织成以下所示的结构。
bevfusion
├── assets
├── configs
├── mmdet3d
├── tools
├── data
│ ├── nuscenes
│ │ ├── maps
│ │ │ ├── basemap
│ │ │ ├── expansion
│ │ │ ├── prediction
│ │ ├── samples
│ │ ├── sweeps
│ │ ├── v1.0-test
│ │ ├── v1.0-trainval
项目的数据预处理需要使用tools/create_data.py重新处理一次。
cd bevfusion
python tools/create_data.py nuscenes --root-path ./data/nuscenes --out-dir ./data/nuscenes --extra-tag nuscenes
./tools/download_pretrained.sh # 使用该脚本下载检查点,方便后续训练和测试
项目的数据预处理后,在bevfusion文件夹下将会组织成以下所示的结构。
mmdetection3d ├── assets ├── configs ├── mmdet3d ├── tools ├── data │ ├── nuscenes │ │ ├── maps │ │ │ ├── basemap │ │ │ ├── expansion │ │ │ ├── prediction │ │ ├── samples │ │ ├── sweeps │ │ ├── v1.0-test │ │ ├── v1.0-trainval │ │ ├── nuscenes_database │ │ ├── nuscenes_infos_train.pkl │ │ ├── nuscenes_infos_val.pkl │ │ ├── nuscenes_infos_test.pkl │ │ ├── nuscenes_dbinfos_train.pkl
BEVFusion的单卡训练和测试需要修改一下tool/train文件、mmdet3d/apis/train.py文件和tools/test.py文件,参考这篇文章进行修改。
## 单卡训练 # 多模态(常用) CUDA_VISIBLE_DEVICES=5 python tools/train_single_gpu.py \ configs/nuscenes/det/transfusion/secfpn/camera+lidar/swint_v0p075/convfuser.yaml \ --model.encoders.camera.backbone.init_cfg.checkpoint pretrained/swint-nuimages-pretrained.pth \ --load_from pretrained/lidar-only-det.pth \ --run-dir output/bev_result/ # 图像 CUDA_VISIBLE_DEVICES=5 python tools/train_single_gpu.py \ configs/nuscenes/det/centerhead/lssfpn/camera/256x704/swint/default.yaml \ --model.encoders.camera.backbone.init_cfg.checkpoint pretrained/swint-nuimages-pretrained.pth \ --run-dir output/image_result/ # 点云 CUDA_VISIBLE_DEVICES=5 python tools/train_single_gpu.py \ configs/nuscenes/det/transfusion/secfpn/lidar/voxelnet_0p075.yaml \ --run-dir output/lidar_result/
# 单卡测试(常用)
CUDA_VISIBLE_DEVICES=5 python tools/test_single_gpu.py \
configs/nuscenes/det/transfusion/secfpn/camera+lidar/swint_v0p075/convfuser.yaml \
pretrained/bevfusion-det.pth --eval bbox
## 多卡训练 # 多模态 torchpack dist-run -np 8 python tools/train.py \ configs/nuscenes/det/transfusion/secfpn/camera+lidar/swint_v0p075/convfuser.yaml \ --model.encoders.camera.backbone.init_cfg.checkpoint pretrained/swint-nuimages-pretrained.pth \ --load_from pretrained/lidar-only-det.pth \ --run-dir output/bev_result/ # 图像 torchpack dist-run -np 8 python tools/train.py \ configs/nuscenes/det/centerhead/lssfpn/camera/256x704/swint/default.yaml \ --model.encoders.camera.backbone.init_cfg.checkpoint pretrained/swint-nuimages-pretrained.pth \ --run-dir output/image_result/ # 点云 torchpack dist-run -np 8 python tools/train.py \ configs/nuscenes/det/transfusion/secfpn/lidar/voxelnet_0p075.yaml \ --run-dir output/lidar_result/
## 多卡测试
# 多模态
torchpack dist-run -np 8 python tools/test.py \
configs/nuscenes/det/transfusion/secfpn/camera+lidar/swint_v0p075/convfuser.yaml \
pretrained/bevfusion-det.pth --eval bbox
## 可视化
torchpack dist-run -np 1 python tools/visualize.py \
configs/nuscenes/det/transfusion/secfpn/camera+lidar/swint_v0p075/convfuser.yaml \
--mode pred --checkpoint pretrained/bevfusion-det.pth --bbox-score 0.1 --out-dir output/bev_result/visualize
至此,BEVFusion的环境配置到此结束!感谢大家的观看!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。