当前位置:   article > 正文

【Pytorch】RuntimeError: CUDA out of memory 问题解决_runtimeerror: cudnn error: cudnn_status_internal_e

runtimeerror: cudnn error: cudnn_status_internal_error you can try to repro

情况一:
显示free的内存足够分配,但仍然报CUDA out of memory错误。
如(仅举例):RuntimeError: CUDA out of memory. Tried to allocate 26.00 MiB (GPU 0; 10.73 GiB total capacity; 9.55 GiB already allocated; 2.10 GiB free; 19.44 MiB cached)

情况二:
RuntimeError: cuDNN error: CUDNN_STATUS_INTERNAL_ERROR
You can try to repro this exception using the following code snippet. If that doesn’t trigger the error, please include your original repro script when reporting this issue.

解决方法:
前两种情况在修改数据加载函数(根据代码有所不同)中的num_workers 参数后解决。
num_workers参数是加载数据的线程数目,有可能电脑的线程数不满足所配置的参数。我的电脑是8线程,参数调为8就不合适,可相应降低。但num_worker越小,训练越慢,可权衡后调整。
解决办法出处:https://www.cxymm.net/article/yapifeitu/109004902

查看自己电脑线程数的方法:
1.WIN+R
2.输入wmic回车
3.输入cpu get numberOfLogicalProcessors回车


情况三:
GPU内存确实不足:
RuntimeError: CUDA out of memory. Tried to allocate 26.00 MiB (GPU 0; 10.73 GiB total capacity; 9.55 GiB already allocated; 28.31 MiB free; 19.44 MiB cached)

解决方法:
1.减小batch_size。注意batchsize的调整要配合学习率的调整,一般是正比关系,BS增大两倍,LR增大两倍或者根号二倍。减小也是相应更改。
2.运行torch.cuda.empty_cache()函数。加在训练开始前即可。
3.释放GPU内存,kill掉没用的进程。
4.更改使用的显卡。这里大多指在服务器上运行,没有制定显卡,都默认使用第一张,或者多人使用,产生的不足。参考:https://blog.csdn.net/weixin_43525427/article/details/104865262
————————————————
版权声明:本文为CSDN博主「柠檬啵」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_41401924/article/details/120851573

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/220616
推荐阅读
相关标签
  

闽ICP备14008679号