当前位置:   article > 正文

yolov7在检测的时候报RuntimeError: CUDA out of memory. Tried to allocate_yolov7训练老师out of memory

yolov7训练老师out of memory
    在训练时,这个问题很常见,只需要确保cudnn 和 torch 正常的情况下,修改batch-size即可解决。但在检测中,特别时检测一段时间后出现RuntimeError: CUDA out of memory. Tried to allocate xx MiB (GPU 0; xx GiB total capacity; xx GiB already allocated; xx MiB free; xx GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CON
    该问题如果直接用他本身的检测类detect.py时无问题,在自己封装过程的检测类,比如结合deepsort时封装的检测器会报这样的问题。本身检测类在最后用了 with torch.no_grad(): ,该代码作用是放在里面的代码块不计算梯度。在自己封装的类里面加入torch.set_grad_enabled(False),如果自己封装类没有引入torch ,需要import torch,如果开启torch.set_grad_enabled(True),关闭计算梯度的功能,检测一段时间后就不回出现显存溢出的情况。`
    import torch 
    torch.set_grad_enabled(False) #不计算梯度 防止显存运行一段时间后溢出`
    ![detect.py](https://img-blog.csdnimg.cn/aa112bab88984ef7b1e9fe06695f6c46.png)
  • 1
  • 2
  • 3
  • 4
  • 5
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/220598?site
推荐阅读
相关标签
  

闽ICP备14008679号