赞
踩
maskrcnn编译时报错,原因是我装的torch是1.13的,但THC.h文件在Pytorch1.10版之后被移除了。
解决方法:
template <typename T>
__host__ __device__ __forceinline__ T THCCeilDiv(T a, T b) {
return (a + b - 1) / b;
}
#include <ATen/cuda/ThrustAllocator.h>
注释掉THCState这句话,因为在新的pytorch中不需要使用该数据类型来生成Malloc所需空间。
THCState *state = at::globalContext().lazyInitCUDA(); // TODO replace with getTHCState
将THCudaMalloc按照下文的形式修改(旧函数第二个参数作为新函数的唯一参数)
//mask_dev = (unsigned long long*) THCudaMalloc(state, boxes_num * col_blocks * sizeof(unsigned long long));
mask_dev = (unsigned long long*) c10::cuda::CUDACachingAllocator::raw_alloc(boxes_num * col_blocks * sizeof(unsigned long long));
THCudaFree的替换方式如下:
// THCudaFree(state, mask_dev);
c10::cuda::CUDACachingAllocator::raw_delete(mask_dev);
另外补一些细枝末节的问题:
AttributeError: module ‘numpy‘ has no attribute ‘float‘
numpy版本高了,出现这个问题是因为np.float从1.24起被删除。所用的代码是依赖于旧版本的Numpy,降低numpy版本,降到1.23.5就行
----------------------------------------------一些碎碎念-----------------------------------------------
跟python setup.py build develop斗智斗勇已经有三个年头了。
在今天出现了全新的bug。
因为是4090 把torch从1.9换成了1.13的
结果就报错了^ _ ^
另外插一句 cudatoolkit11.3好像不能用在4090上 cuda.is_available()是false的
cudatoolkit11.7是可以的 本机的CUDA也是11.7 其他版本的cudatoolkit还没试
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。