赞
踩
不太好做目录,放到代码段里了,每行是一个问题,目前有52个问题。
- RuntimeError: CUDA error: device-side assert triggered
- RuntimeError:invalid argument 5:k not in range for dimension at /pytorch/ate ...
- ValueError: optimizer got an empty parameter list
- The size of tensor a (197) must match the size of tensor b (577) at non-singleton dimension 1
- RuntimeError: version_ <= kMaxSupportedFileFormatVersion INTERNAL ASSERT FAILED at /pytorch/caffe2/serialize/inline_container.cc:132, please report a bug to PyTorch. Attempted to read a PyTorch file with version 3, but the maximum supported version for reading is 2. Your PyTorch installation may be too old. (init at /pytorch/caffe2/serialize/inline_container.cc:132)
- RuntimeError: Expected to have finished reduction in the prior iteration before starting a new one. This error indicates that your module has parameters that were not used in producing loss. You can enable unused parameter detection by (1) passing the keyword argument `find_unused_parameters=True` to `torch.nn.parallel.DistributedDataParallel`; (2) making sure all `forward` function outputs participate in calculating loss. If you already have done the above two steps, then the distributed data parallel module wasn't able to locate the output tensors in the return value of your module's `forward` function. Please include the loss function and the structure of the return value of `forward` of your module when reporting this issue (e.g. list, dict, iterable).
- Setting OMP_NUM_THREADS environment variable for each process to be 1 in def
- 8.nn.Sequential()如下会出现错误
- view size is not compatible with input tensor's size and stride (at least one dimension spans across
- semaphore_tracker: There appear to be 11 leaked semaphores to clean up at shutdown
- ImportError: libGL.so.1: cannot open shared object file: No such file or directory
- RuntimeError: cuda runtime error (11) : invalid argument at /opt/conda/conda-bld/pytorch_1535491974311/work/aten/src/THC/THCGeneral.cpp:663
- [PyTorch] IndexError: Dimension out of range (expected to be in range of [-1, 0], but got 1)
- /pytorch/aten/src/ATen/native/IndexingUtils.h:20: UserWarning: indexing with dtype torch.uint8 is now deprecated, please use a dtype torch.bool instead.
- RuntimeError: zero-dimensional tensor (at position 0) cannot be concatenated
- object of type <class 'numpy.float64'> cannot be safely interpreted as an integer.
- RuntimeError: Expected object of scalar type Long but got scalar type Float for argument #2 'target' in call to _thnn_nll_loss_forward
- The shape of the mask [32, 8732] at index 0 does not match the shape of the indexed tensor [279424, 1] at index 0
- tensorboard ValueError: Duplicate plugins for name projector
- RuntimeError: version_ <= kMaxSupportedFileFormatVersion INTERNAL ASSERT FAILED at /pytorch/caffe2/serialize/inline_container.cc:132, please report a bug to PyTorch. Attempted to read a PyTorch file with version 3, but the maximum supported version for reading is 2. Your PyTorch installation may be too old. (init at /pytorch/caffe2/serialize/inline_container.cc:132)
- pytorch报错:ValueError: Expected more than 1 value per channel when training, got input size torch.Size([1,512,1,1])
- 'NoneType' object has no attribute 'parameters' model.parameters()
- alueError: loaded state dict contains a parameter group that doesn't match the size of optimizer's group
- is not a checkpoint file
- torch.jit.trace()之正确的模型保存
- RuntimeError: CUDA error: no kernel image is available for execution on the device
- NVIDIA GeForce RTX 3090 with CUDA capability sm_86 is not compatible with the current PyTorch installation.
- site-packages/torch/multiprocessing/spawn.py当中KeyError: 'gpus'
- ZeroDivisionError: division by zero
- graphviz.backend.ExecutableNotFound: failed to execute ['dot', '-Tpng', '-O', 'normal'], make sure
- No such file or directory: 'xdg-open': 'xdg-open'
- tcp://127.0.0.1:FREEPORT
- cv2.error: OpenCV(4.6.0) /io/opencv/modules/imgcodecs/src/loadsave.cpp:801: error: (-215:Assertion failed) !_img.empty() in function 'imwrite'
- ileNotFoundError: [Errno 2] No such file or directory: '/home/whl/kanghaidong/project/TransferLearning-Tasks/PASCAL_VOC/VOCdevkit/VOC2020/Annotations/.xml'
- ValueError: could not convert string to float: '(16)'
- PyTorch加载模型model.load_state_dict()问题,Unexpected key(s) in state_dict: “module.features..,Expected .
- target.cuda(async=True) SyntaxError: invalid syntax
- UnicodeDecodeError: 'utf-8' codec can't decode byte 0x80 in position 3131: invalid start byte解决办法
- OSError: The CUDA lib64 path could not be located in /usr/lib64
- pip install onnx出现 Could NOT find pybind11 (missing: pybind11_DIR)
- OpenCV Error: Unspecified error (could not find a writer for the specified extension) in imwrite
- ModelBin read weight_data failed 0
- Could NOT find CUDA (missing: CUDA_TOOLKIT_ROOT_DIR CUDA_INCLUDE_DIRS CUDA_CUDART_LIBRARY) (found suitable exact version “10.2“)
- CMake 3.14.0 or higher is required. You are running version 3.10.2
- The compiler does not support arm vfpv4. NCNN_VFPV4 will be OF
- c++ opencv使用时报错:Rebuild the library with Windows, GTK+ 2.x or Carbon support.
- OpenCv中CV_FILLED未定义标识符
- MAC无法安装和使用LIB_GL
- Could not load dynamic library 'libcudart.so.11.0'; dlerror: libcudart.so.11.0: cannot open shared object file: No such file or directory
- loss.backward() RuntimeError: Found dtype Double but expected Float
- 在ncnn当中使用int8量化产生segment 错误问题截止量化。
- export failure ❌ 0.0s: Unsupported ONNX opset version: 17
提示:介绍了我遇到的一些AI架构的问题,有些解决方案来自于其他博主,没来得及添加引用。
具体内容:见下文。
使用pytorch的时候报这个错误说明你label中有些指不在[0, num classes), 区间左闭右开。比如类别数num_class=3, 你的label出现了-1或者3, 4, 5等!!!!
训练只有3类,没办法算top5,所以需要修改计算acc时候的topk=(1,3);
- 出现这个问题,很多原因,但是主要原因就是网络定义的不好,有些层没有加进来,或者被改掉了;model.parameters()这个
- 是看到torch提供的借口里面定义的结构,应该外面也可以,至于加载不进来,和使用了特殊的方法有关,如下:
-
- def get_optimizer(model, args):
- parameters = []
- # for name, param in model.named_parameters():
- # if 'fc' in name or 'class' in name or 'last_linear' in name or 'ca' in name or 'sa' in name:
- # parameters.append({'params': param, 'lr': args.base_lr * args.lr_fc_times})
- # else:
- # parameters.append({'params': param, 'lr': args.base_lr})
- # parameters = model.parameters()
- if args.optimizer == 'sgd':
- optimizer = torch.optim.SGD(model.parameters(), lr=args.base_lr, momentum=args.momentum, weight_decay=args.weight_decay)
- # return torch.optim.SGD(parameters,
- # # model.parameters(),
- # args.base_lr,
- # momentum=args.momentum, nesterov=args.nesterov,
- # weight_decay=args.weight_decay)
- 对的,正常你定义一个模型,如resnet,是可以使用for name, param in model.named_parameters():
- 并且,nesterov=args.nesterov这个参数也有问题,即不能够随便乱用。
这个就是维度对不上,一般就是几个错误,数据维度跟网络为度不一致,数据要能够被batch整除,一个就是对dataloader的一个参数drop_last=False; 当然,如果你网络定义有错误,即中间层每层输入,和输出的维度不一致,就是网络在forward操作过程中没对齐,没做好。还是网络问题。
- OMP_NUM_THREADS 用于控制线程并发数.
-
- 测试条件:单个循环请求,持续时间大于15m;
- 基础数据:200w
- 软件环境:docker; ubuntu 16.04 ;python2.7; faiss:1.4.0-cpu
- 检索服务功能: (汉明距离计算 + 欧式距离计算 )
-
- OMP 设置线程的3种方法
-
- 设置线程的3种方法
- 1. 在子语句 data clause 中设置 :
- num_threads( )
- #pragma omp parallel for default(none) shared(x) private (i) num_threads(3)
- for(i=0; i<10; i++){
- x[i]=i;
- }
-
-
- 2. 在 run time 函数库中设置 :
- omp_set_num_threads( )
- omp_set_num_threads(2)
- #pragma omp parallel for default(none) shared(x) private (i)
- for(i=0; i<10; i++){
- x[i]=i;
- }
-
-
- 3. 在环境变量中设置environment variables
- 在命令窗口中配置 : export OMP_NUM_THREADS = 3
- module load intel //call intel module
- icc -0 -qopenmp myOMP.c -o myOMP.exe //compile
- export OMP_NUM_THREADS=3 ./myOMP.exe //run
-
- Summary:
- 1、2、3 优先级依次降低的,也就是前面的设置可以覆盖后面的设置,当然也是相对而言,num_threads子句只会影响当前的并行区域,而omp_set_num_threads对OMP_NUM_THREADS环境变量的覆盖是在整个程序运行期间全局的。
- # self.fc = nn.Sequential(
- # nn.Linear(int(1024 * block.expansion * s), num_classes),
- # # nn.Softmax(dim=1))
- # )
-
- self.fc = nn.Linear(int(1024 * block.expansion * s), num_classes)
-
- 这两种计算会出现问题,把模块封装到nn.Sequential居然出现了问题,出现计算结果很低的情况,很蛋疼,正常
- 这个应该是没问题,就是把多个op组到一起。但是测试居然出现问题。
- 关于softmax还是做到模型的外面的好。而且要区分模型里面一些操作也会用到sofotmax,我们讲的就是fc之后的。
原因:用多卡训练的时候tensor不连续,即tensor分布在不同的内存或显存中。 解决方法:对tensor进行操作时先调用contiguous()。如tensor.contiguous().view()。
- 最近在跑代码的时候总是会遇到这个错误,明明是UserWarning,但是程序会停止运行,错误提示为
- multiprocessing/semaphore_tracker.py:144: UserWarning: semaphore_tracker: There appear to be 4 leaked semaphores to clean up at shutdown
- len(cache))
- 查了很多资料,这个问题似乎很早之前就有,最早能找到的是在2013年,但是没有什么很好的解决方法,最终发现,需要忽略这个警告就可以了,在运行代码之前加入这一句,希望能帮到大家,我被这个错误耽误了太长时间了
- export PYTHONWARNINGS='ignore:semaphore_tracker:UserWarning'
- 想要一块小小的GPU做推断和测试都无法满足。。。唯一一块卡还被业务拿走了。。。
- 强烈建议能够给深度学习工作的小伙伴,配置一块淘汰下来的卡,1080也行啊。。。服务器长期被霸占,还咋个玩,夹缝中求生存。
- 在新的docker中import的时候出现如下问题:
- ImportError: libGL.so.1: cannot open shared object file: No such file or directory
-
- 其实就是新容器缺少依赖,安装一下就行了
- apt update
- apt install libgl1-mesa-glx
- 这是一个老问题了。主要原因是pytorch和cuda版本太老,而你用的硬件确实蛋疼的2080ti。
- 一般是pytorch你用了0.4.1,是基于cuda9.0或者9.2
- 为什么不能升级,主要是因为DCNv2这种卷积改写了cuda代码,才能够实现梯度计算。这种操作pytorch不支持
- 自动梯度更新。
- 但是作者既然已经更新了DCNv2的cuda代码,即支持了pytorch>1.X版本,那么你要升级代码,其他模块最多是
- 接口或者方法调用上有区别,这些是都可以改的。
-
- 解决办法如下:
- 方法1:
- I have the same issue. RTX2080, for CUDA 10.0 and pytorch 1.0.0. Anyone has solved the same problem please provide the information of the solution. It would help a lot of people. Thanks!
- Okay I have solve the problem. You cannot directly install pytorch, instead “pip3 install -U https://download.pytorch.org/whl/cu100/torch-1.0.0-cp36-cp36m-linux_x86_64.whl” work for me.
-
- 或者你手动下载,然后用 python3.6 -m pip install https://download.pytorch.org/whl/cu100/torch-1.0.0-cp36-cp36m-linux_x86_64.whl
-
- 安装好对应版本的pytorch以后,然后参考如下:
- 7- cd /CenterNet/src/lib/models/networks
- rm -r DCNv2
- git clone https://github.com/CharlesShang/DCNv2.git
- cd /CenterNet/src/lib/models/networks/DCNv2
- python setup.py build develop
-
- 即安装新的支持了pytorch>1.X版本。
- 然后对于BN:
- Disable cudnn batch normalization(follow [CenterNet](https://github.com/xingyizhou/pytorch-pose-hg-3d/issues/16)).
-
- ~~~powershell
- # PYTORCH=/path/to/pytorch # usually ~/anaconda3/envs/MOC/lib/python3.5/site-packages/
- # for pytorch v0.4.1
- sed -i "1254s/torch\.backends\.cudnn\.enabled/False/g" ${PYTORCH}/torch/nn/functional.py
- ~~~
-
- For other pytorch version, you can manually open `torch/nn/functional.py` and find the line with `torch.batch_norm` and replace the `torch.backends.cudnn.enabled` with `False`.
- OK!!!搞定。
-
- 按照道理来讲,这个问题就是DCN的问题,那么对于pytorch按照它说的,只要>1.X不死活都行吗,可以验证一下。
- 验证结果是,的确是,现在的pytorch版本是1.4.所以网上的答案都是垃圾吧。
- import torch
- import torch.nn as nn
-
- # a = torch.tensor([[-0.8, -0.2], [-0.2, -0.3], [-0.24, -0.35]]).float()
- a = torch.tensor([-0.8, -0.2]).float()
- b = torch.tensor([0])
- # a = torch.tensor([1, 2, 3])
- # b = torch.tensor([1, 0, 1])
-
-
- print(nn.CrossEntropyLoss()(a, b))
-
- print(nn.CrossEntropyLoss()(a, b))
- File "/Users/kanghaidong/.conda/envs/py36/lib/python3.6/site-packages/torch/nn/modules/module.py", line 727, in _call_impl
- result = self.forward(*input, **kwargs)
- File "/Users/kanghaidong/.conda/envs/py36/lib/python3.6/site-packages/torch/nn/modules/loss.py", line 962, in forward
- ignore_index=self.ignore_index, reduction=self.reduction)
- File "/Users/kanghaidong/.conda/envs/py36/lib/python3.6/site-packages/torch/nn/functional.py", line 2468, in cross_entropy
- return nll_loss(log_softmax(input, 1), target, weight, None, ignore_index, None, reduction)
- File "/Users/kanghaidong/.conda/envs/py36/lib/python3.6/site-packages/torch/nn/functional.py", line 1605, in log_softmax
- ret = input.log_softmax(dim)
- IndexError: Dimension out of range (expected to be in range of [-1, 0], but got 1)
-
- Process finished with exit code 1
-
- 其实问题很明显,就是这个操作ret = input.log_softmax(dim)不支持batch_size=1的操作。
- 解决办法就是让batch_size>1.
- import warnings
- warnings.filterwarnings("ignore", category=UserWarning)
- 简单就是转位int,再使用torch.tensor([x]])
-
-
- torch.cat() 函数传入的tuple里面的tensor维度不可以为0,而我们直接创建一个非list的tensor的时候,就有了zero-dimensional tensor, 这在pytorch0.3 版本没有什么问题,但pytorch0.4版本中,加入了zero-dimensional tensor 的概念,做出了区分。
- 之所以会这样,是因为我想要做concatenate操作的是一个tensor的浮点型数据,loss.data, 而loss.data 是一个tensor()类型, 跟tensor([])类型是完全不一样的!
- 错误详情
- 在使用pycocotools的时候报TypeError: object of type <class 'numpy.float64'> cannot be safely interpreted as an integer.错误详细信息如下
- File "/home/disk0/zw/workspace/models/research/object_detection/metrics/coco_evaluation.py", line 415, in first_value_func
- self._metrics = self.evaluate()
-
- File "/home/disk0/zw/workspace/models/research/object_detection/metrics/coco_evaluation.py", line 246, in evaluate
- coco_wrapped_groundtruth, coco_wrapped_detections, agnostic_mode=False)
-
- File "/home/disk0/zw/workspace/models/research/object_detection/metrics/coco_tools.py", line 177, in __init__
- cocoeval.COCOeval.__init__(self, groundtruth, detections, iouType=iou_type)
-
- File "/home/zw/anaconda3/envs/competition/lib/python3.6/site-packages/pycocotools/cocoeval.py", line 76, in __init__
- self.params = Params(iouType=iouType) # parameters
-
- File "/home/zw/anaconda3/envs/competition/lib/python3.6/site-packages/pycocotools/cocoeval.py", line 527, in __init__
- self.setDetParams()
-
- File "/home/zw/anaconda3/envs/competition/lib/python3.6/site-packages/pycocotools/cocoeval.py", line 507, in setDetParams
- self.iouThrs = np.linspace(.5, 0.95, np.round((0.95 - .5) / .05) + 1, endpoint=True)
-
- File "<__array_function__ internals>", line 6, in linspace
-
- File "/home/zw/anaconda3/envs/competition/lib/python3.6/site-packages/numpy/core/function_base.py", line 121, in linspace
- .format(type(num)))
-
-
- 解决办法
- 这个原因应该是numpy更新以后导致的;
- 1.通过上面的信息可以看到,错误原因是cocoeval.py中的np.linspace函数导致的,发生这个原因是因为np.linspace函数的num参数不支持float类型导致的,找到lib/python3.6/site-packages/pycocotools下的cocoeval.py文件,将507行改成如下
- self.iouThrs = np.linspace(.5, 0.95, int(np.round((0.95 - .5) / .05)) + 1, endpoint=True)
- 原来的是:self.iouThrs = np.linspace(.5, 0.95, np.round((0.95 - .5) / .05) + 1, endpoint=True);具体就是进行int将float强制转换
- 2.或者安装numpy的1.11.0的版本
- 如:pip install numpy==1.16
- 导致这个问题,一般是你重新处理过label;并非由dataloader返回的。比如无监督学习当中你生成了一个label的编码。
-
-
- 在用pytorch的时候,报错RuntimeError: Expected object of scalar type Long but got scalar type Float for argument #2 'target'。研究了一下,发现是关于label的错误。修改办法总结一下:
- 1、RuntimeError: Expected object of scalar type Long but got scalar type Float for argument #2 'target',在这个报错中,标红的地方是关键,找到程序中的label,比如说在loss处,如下所示:
- Loss = torch.nn.CrossEntropyLoss()
- loss = Loss(out, label)
- 修改的时候,直接在label后面加上.long(),如下所示:
- Loss = torch.nn.CrossEntropyLoss()
- loss = Loss(out, label.long())
- 2、多次报这个错误后发现,它说是什么类型,直接在label后面加上对应的类型即可。
- 在multibox_loss.py的
- 98 loss_c[pos] = 0 # filter out pos boxes for now
- 上一行加上
- loss_c = loss_c.view(pos.size()[0], pos.size()[1])
- 这个是ssd代码已知的问题。可通过上面进行修复。
- 解决方案:去torch安装路径的site-packages文件夹下, 删掉tensorboard--2.0.0dist-info
- 造成的原因是安装了多个版本,然后冲突了。
- 解决:
- in 1.7:
-
- torch.save(model_.state_dict(), 'model_best_bacc.pth.tar', _use_new_zipfile_serialization=False)
- 1
- then in 1.4:
-
- torch.load('model_best_bacc.pth.tar',map_location='cpu')
2.网上查找的原因为模型中用了batchnomolization,训练中用batch训练的时候当前batch恰好只含一个sample,而由于BatchNorm操作需要多于一个数据计算平均值,因此造成该错误。 3.解决方法:在torch.utils.data.DataLoader类中或自己创建的继承于DataLoader的类中设置参数drop_last=True,把不够一个batch_size的数据丢弃。 成功解决。
这个问题是python变量的问题,即model是一个NoneType的类型,这是一个空类型,说明你的model是一个空的,没有在调用的地方进行返回实际的对象。 然后就引发了一系列利用到model的属性出错的问题。 不用怀疑问题是出现在了model没有了paramenters的问题,这个方法是获取model的一个value,通常是一个generate,区别于state_dict是后者是一个dict,还有key的属性,类似的方法有name_paramenters()
- 这个从错误的信息就可以看出来了,是load 模型,希望做resume的时候,或者默认需要做resume的时候,加载的模型参数和
- 当前的模型参数不一致问题;
- 往往大部分就是加载错误了不一致的模型结构;
- 这是一个非常沙雕的错误!
- 如下:checkpoint='epoch.pth '
- 然后就爆了上面错误,查了老半天,才发现沙雕的是一个str,呃,恶心了半天,多了一个空格。
- checkpoint='epoch.pth';去掉空格就行,因为有些代码在加载模型里面没有对空格做约束。
- 一个复杂model正确trace的艰难之路。
-
- 按照提示bug提示来操作
- 在自己的模型的def forword()上一行加上@torch.jit.script_method,再次保存trace的模型,又会出现新的bug,TypeError: ‘ScriptMethodStub’ object is not callable,这个可能是因为模型中有很多回调的过程,如果模型比较复杂,不适合用这个提示的方法,至于简单的模型,没有尝试过。
- 问题解决办法
- 其实这是因为torch.jit.trace()现在是不支持torch.nn.DataParallel,以前好像是支持的,现在不支持了。正确的trace是这样的torch.jit.trace(myModel.module,input_example),完美解决问题。
- cuda和pytorch的版本不一致。3090的卡算力是8.6
- 一般清楚下,安装对应的cuda的pytorch版本就行。但是,v100上,即使安装了版本1.6,cuda=10.2的卡,依旧能用。算力问题吗?
- 升级到torch=1.8或者1.7都行。
- 这个网上也有很多答案了,大同小异。
- 大部分人说是pytorch版本太低,大部分都是从1.8开始,我的环境是1.9.0.cuda11.6
- 但是问题依旧存在,而我1.8.0的环境同样在3090上就没有问题。为什么呢?
-
- 3090卡这种性能不行,问题也比较多。对于算力的支持问题就一堆。不像v100这种,很稳定。
- 这个问题,应该是pytorch版本安装操作问题,即没有按照官网规范操作。自己单独进行pip install pytorch了。没有考虑到cuda的依赖问题。
-
- 解决办法很简单,就是去官方找支持cuda11以上的torch安装就行。
- 很清楚,问题出现在site-packages/torch/multiprocessing/spawn.py这个程序上了。指定的gpu个数和实际测量的不对应。
-
- 修改很清楚,查看gpu的个数和指定gpu的个数是否一致。
-
- 但是不建议使用这种方式多gpu的ddp训练,容易忘记导致出错。
- 在除数组成的lst中,最后一个元素为0,当使用到最后一个元素0作为除数时,会提示ZeroDivisionError: division by zero
-
- 比如:
- int(level * maxval / PARAMETER_MAX)
-
- 就要保证PARAMETER_MAX!=0
- 解决方法:
-
- 输入命令import graphviz返回正常,表示python 3.6中已安装graphviz.
-
- 根据参考文献1中的提示表明不仅需要在python中成功安装graphviz,还要在系统中安装graphviz,并在系统路径里添加配置(控制面板——》系统——》高级系统设置——》系统属性——》高级——》环境变量——》系统变量——》Path中添加C:\Program Files (x86)\Graphviz2.38\bin;)。
-
- 如果是Ubuntu系统,可使用命令 sudo apt-get install graphviz 安装;
-
- 如果是Windows系统,则去官网下载安装包,目前稳定版是graphviz-2.38.msi或graphviz-2.38.zip;
-
- 如果是Mac系统,可以通过Homebrew安装。
yum install xdg-utils
用于pytorch的分布式训练.本质上是pytorch的cpu通信,没有指定端口。比如8080.
- 1.问题描述:已知bbox,裁剪图像并保存
- 2.代码细节:
- ...
- for bbox_idx, bbox in enumerate(bbox_list):
- img_clip = img[bbox[1]:bbox[3], bbox[0]:bbox[2], :]
- cv2.imwrite('./{}.png'.format(bbox_idx),img_clip)
- ...
- 3.报错: 运行成功几张图片后报错
- cv2.error: OpenCV(4.6.0) /io/opencv/modules/imgcodecs/src/loadsave.cpp:801: error: (-215:Assertion failed) !_img.empty() in function 'imwrite'
-
- 4. 问题分析:
- 分析:运行几张图片后成功,说明某一张图片,或者某一张图的bbox有问题; 打印出每个bbox数值:
- ...
- #for bbox_idx, bbox in enumerate(bbox_list):
- # img_clip = img[bbox[1]:bbox[3], bbox[0]:bbox[2], :]
- print(bbox)
- # cv2.imwrite('./{}.png'.format(bbox_idx),img_clip)
- ...
- ...
- [144 248 232 423 2]
- [144 247 233 425 2]
- [142 251 230 428 2]
- [ 0 263 56 441 4]
- [140 256 228 432 2]
- [ 0 262 54 442 4]
- [ 0 259 53 445 4]
- [ -3 257 48 446 4] ## 出现负数
- ...
- cv2.error: OpenCV(4.6.0) /io/opencv/modules/imgcodecs/src/loadsave.cpp:801: error: (-215:Assertion failed) !_img.empty() in function 'imwrite'
- 5. 问题原因:
- bbox在检测过程中出了图像边界,导致出现负数,可视化如下图:
- 将所有小于0的值归零,问题解决:
-
- ...
- #for bbox_idx, bbox in enumerate(bbox_list):
- bbox[bbox < 0] = 0
- # img_clip = img[bbox[1]:bbox[3], bbox[0]:bbox[2], :]
- # cv2.imwrite('./{}.png'.format(bbox_idx),img_clip)
- ...
- 6. 总结:
- 这是cv2.imwrite()的问题,首先确保路径正确,其次img注意以下问题:
- 1.分割的最小值不能小于0
- 2.分割的最大值不能大于图片的宽和高
- 3.分割的最大值要大于分割的最小值
在我的检测代码当中,SSD会生成负数框。但是,注意,这个根本不是问题。实际上经过上面的处理,并没有得到解决。
最终是什么问题呢?是一个很沙雕的问题,朋友们可能猜到了,计算机人常常犯的错误,就是文件根本不存在!!!在这里就是图像的路径有问题,导致无法加载图像,就会爆出一个很沙雕的错误。
当然,还有可能是box,label没有parse出来,为什么呢?我的这里错误是加载全部label的时候出错了,使用的还是voc的。这点需要注意。
- 这个问题是一个很沙雕的问题,在SSD中,对datasets的parse没有做各种空格等等的冗余操作。问题就是一行代码中:
- annotation_file = self.root / f"Annotations/{image_id}.xml"
- 很明显,image_id是空。问题在于加载了空的image_id。即txt中有多余的行。
下面是prediction_path = eval_path / f"det_test_{class_name}.txt"
解决上面的问题有三个办法:
# original saved file with DataParallelstate_dict = torch.load('checkpoint.pt') # 模型可以保存为pth文件,也可以为pt文件。# create new OrderedDict that does not contain `module.`from collections import OrderedDictnew_state_dict = OrderedDict()for k, v in state_dict.items(): name = k[7:] # remove `module.`,表面从第7个key值字符取到最后一个字符,正好去掉了module. new_state_dict[name] = v #新字典的key值对应的value为一一对应的值。 # load paramsmodel.load_state_dict(new_state_dict) # 从新加载这个模型。
model.load_state_dict({k.replace('module.',''):v for k,v in torch.load('checkpoint.pt').items()}) # 相当于用''代替'module.'。#直接使得需要的键名等于期望的键名。
如果有多个GPU,将模型并行化,用DataParallel来操作。这个过程会将key值加一个"module. ***"。
model = VGG()# 实例化自己的模型;checkpoint = torch.load('checkpoint.pt', map_location='cpu') # 加载模型文件,pt, pth 文件都可以;if torch.cuda.device_count() > 1: # 如果有多个GPU,将模型并行化,用DataParallel来操作。这个过程会将key值加一个"module. ***"。 model = nn.DataParallel(model) model.load_state_dict(checkpoint) # 接着就可以将模型参数load进模型。
model = VGGNet()params=model.state_dict() #获得模型的原始状态以及参数。for k,v in params.items(): print(k) #只打印key值,不打印具体参数。
改成:
- mac下的问题
- 删除.DS_Store
将lib64改为如下:
然后进行make,就可以编译成功。我这里用的是nms的cuda和c++代码,需要进行编译。
很明显,pybind11安装不正确。需要按照如下:
- pip install pybind11[global] -i https://mirrors.aliyun.com/pypi/simple
- pip install onnx==1.9.0
- 在NCNN 使用 opencv在C++中,很久没写代码就会出现上面的初级问题;
- 原因上面英文写了,没有特定的文件,错误在于使用不规范;
- cv::imwrite("image",img);
- 应该修改成下面形式,image.jpg or image.png
- 这个问题似乎网上解决的答案没有的。场景出现在机器学习加速框架ncnn中;
- 加载.bin文件出错了。
- 这种问题,很韩找到对应的错误语句;我这里的解决办法就是重新查看.param和.bin是否生成正确。
- 一般情况下,就是生成的有问题,重新onnx2ncnn就行。
- 使用场景,nvcc在jetson上编译。
- 官方针对jetson给了一个编译的工具链,但是在编译过程出现了上面问题。似乎是CUDA没找到正确的路径,但是存在10.2的版本。
- 首先定义问题,有可能是cuda安装不正确,可以通过:
- nvcc
- 去检验;也有可能是装了多个版本,存在冲突;也有可能是装了,但是没有写入到系统环境当中,导致找不到;也有可能是cuda和实际的版本不一致;
- 也有可能是对于/usr/local/cuda没有权限,需要进行chmod -R 777
- 但是我上面方法都不好使;
- 只能放弃官方jeston的编译工具链了;
- 使用通用简单的cmake ..
- 当然,这样子肯定是存在问题的,但是对于库文件的编译和使用足够了;
- 或者,为了更好的方便编译,毕竟jetson的算力和空间有限,我们可以针对arm架构进行交叉编译,这个是很普遍的一个操作,也很实用。
- 当然,不同服务器文件传输和同步是一个问题,也能通过ssh脚本自动解决,但是毕竟看着不流畅,很闹心。本来很简单的事件,非得弄的多了很多步骤。
- 问题在于linux的apt默认是3.10,而且没办法指定版本。
- 卸载原来版本,下载对应版本,进行源码编译就行。
- 如果找不到cmake,看看是否在环境。
- 一般通过构建软连接,放到/usr/bin/下就行,如果实在懒,那就cp。
暂时没有方案。有谁会可以补充。 场景:ncnn在jetson上编译。
具体问题如下:
网上大部分出错是python调用的时候出现这个问题,解决办法都是重新装就行。
当前场景是jetson服务器无法show图,但是可以写。jetson是 ubuntu环境。
这里面我没有用pip装opencv,都是:
apt install libopencv-dev
版本是4.60
似乎默认的有个跟gtk的选项是关闭的。当然,opencv这个编译选项还是很坑的,为什么就不能够做的更加通用呢。
- 如果opencv安装时,WITH_GTK=OFF -D WITH_GTK_2_X=OFF :
- #cmake -D CMAKE_BUILD_TYPE=Release -D CMAKE_INSTALL_PREFIX=/usr/local/opencv3.4.2 -D OPENCV_EXTRA_MODULES_PATH=/home/jupiter/opencv-3.4.2/opencv_contrib-3.4.2/modules -D WITH_GTK=OFF -D WITH_GTK_2_X=OFF ..
- cmake -D CMAKE_BUILD_TYPE=Release -D CMAKE_INSTALL_PREFIX=/usr/local/opencv3.4.2 -D OPENCV_EXTRA_MODULES_PATH=/home/jupiter/opencv-3.4.2/opencv_contrib-3.4.2/modules -D WITH_GTK=OFF -D WITH_GTK_2_X=OFF ..
- 则重装opencv,修改 WITH_GTK=ON -D WITH_GTK_2_X=ON :
- #cmake -D CMAKE_BUILD_TYPE=Release -D CMAKE_INSTALL_PREFIX=/usr/local/opencv3.4.2 -D OPENCV_EXTRA_MODULES_PATH=/home/jupiter/opencv-3.4.2/opencv_contrib-3.4.2/modules -D WITH_GTK=ON -D WITH_GTK_2_X=ON ..
- cmake -D CMAKE_BUILD_TYPE=Release -D CMAKE_INSTALL_PREFIX=/usr/local/opencv3.4.2 -D OPENCV_EXTRA_MODULES_PATH=/home/jupiter/opencv-3.4.2/opencv_contrib-3.4.2/modules -D WITH_GTK=ON -D WITH_GTK_2_X=ON ..
- #cmake -D CMAKE_BUILD_TYPE=Release -D CMAKE_INSTALL_PREFIX=/usr/local/opencv3.4.2 -D OPENCV_EXTRA_MODULES_PATH=/home/jupiter/opencv-3.4.2/opencv_contrib-3.4.2/modules -D WITH_GTK=ON -D WITH_GTK_2_X=ON ..
-
- 或者简单点:
- cmake -D CMAKE_BUILD_TYPE=Release -D CMAKE_INSTALL_PREFIX=/usr/local/opencv3.4.2 -D OPENCV_EXTRA_MODULES_PATH=/home/jupiter/opencv-3.4.2/opencv_contrib-3.4.2/modules ..
-
- 另外,在pencv安装前,要先安装一些依赖项目
- $ sudo apt-get update
- $ sudo apt-get upgrade
- $ sudo apt-get install build-essential
- $ sudo apt-get install cmake git libgtk2.0-dev pkg-config libavcodec-dev libavformat-dev libswscale-dev
- $ sudo apt-get install python-dev python-numpy libtbb2 libtbb-dev libjpeg-dev libpng-dev libtiff-dev libjasper-dev libdc1394-22-dev
- $ sudo apt-get install libavcodec-dev libavformat-dev libswscale-dev libv4l-dev liblapacke-dev
- $ sudo apt-get install libxvidcore-dev libx264-dev
- $ sudo apt-get install libatlas-base-dev gfortran
- $ sudo apt-get install ffmpeg #很重要,读视频,显示视频
- 需要注意cmake的版本。
-
- 更加详细的可以去看:https://www.cnblogs.com/carle-09/p/12377707.html
- 上面的也是来自于这个解决方案。
c++调用opencv画图等等,问题解决办法:
CV_FILLED是老版本写法了,新版本opencv4应该: cv::FILLED。或者引入对应的头文件就行。
cmake中换成opengl就行。
使用场景,一些依赖tensorflow的库。 问题出在版本上,当前版本是2.6,退到1.x就行,我使用的是1.12.
在出错的地方进行类型转换就行。增加.to(torch.float32)
- 使用大缺陷老师的在线平台可能因为参数的设置出现无法量化的问题。解决办法就是,重新做图优化,然后去量化。
- ../ncnnoptimize b.param b.bin b-opt.param b-opt.bin 0
- fuse_convolution_activation Conv_0 Relu_1
- fuse_convolution_activation Conv_2 Relu_3
- fuse_convolution_activation Conv_16 Relu_17
- Input layer input without shape info, shape_inference skipped
- Input layer input without shape info, estimate_memory_footprint skipped
- 然后ncnn2table就可以了。
- ble mean=[127.5,127.5,127.5] norm=[0.007843,0.007843,0.007843] shape=[320,320,3] pixel=BGR method=kl
- mean = [127.500000,127.500000,127.500000]
- norm = [0.007843,0.007843,0.007843]
- shape = [320,320,3]
- pixel = BGR
- thread = 40
- method = kl
- ---------------------------------------
- count the absmax 0.00% [ 0 / 913 ]
- count the absmax 10.95% [ 100 / 913 ]
- count the absmax 21.91% [ 200 / 913 ]
- count the absmax 32.86% [ 300 / 913 ]
- count the absmax 43.81% [ 400 / 913 ]
- count the absmax 54.76% [ 500 / 913 ]
- count the absmax 65.72% [ 600 / 913 ]
- count the absmax 76.67% [ 700 / 913 ]
- count the absmax 87.62% [ 800 / 913 ]
- count the absmax 98.58% [ 900 / 913 ]
- build histogram 0.00% [ 0 / 913 ]
opset=11
比如,yolov5,转成ncnn以后,需要对齐不同分支的输出。v3有三个分支,stride=8,16,32。具体三个的name去看param里面的Permute对应的就行。
会不定期更新。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。