当前位置:   article > 正文

cuda out of memory(pytorch)问题的解决

cuda out of memory

最近在训练网络,发现无法使用GPU,一直报错cuda out of memory.查阅了网上很多方法,记录一下我的解决过程。

可能原因及解决方法

(一)

原因:大量其他进程占用了GPU
解决:kill占用GPU的进程,释放GPU
参考博文:链接

(二)

原因:batch_size过大
解决:将batch_size调小一点,再次测试看能否运行。

(三)

原因:不知道这个怎么描述,没有用到所有的GPU?
解决:在代码中添加os.environ['CUDA_VISIBLE_DEVICES']="0, 1",这个序号是你的设备的GPU的编号,我的设备上只有0,1号GPU。
参考博文:链接

(四)

原因:程序运行过程中产生大量中间量,pytorch不清除这些中间量,从而造成了GPU爆内存。
解决:清除过程中产生的中间量
参考博文:添加链接描述

我的问题的解决

修改过程

上述的(一)(二)(三)(四)都尝试了之后,未能解决我的程序的问题。
我的程序报错的地方:
在这里插入图片描述
将其改为:
在这里插入图片描述
这一步不保存中间的梯度信息。
继续报错:element 0 of tensors does not require grad and does not have a grad_fn
继续改,原因是require_grad是False,改为True:train_loss = train_loss.requires_grad_(True)
哦莫,就成了!喜大普奔!还是GPU跑得快啊!
具体修改情况

说明

当我把batch_size改成8后就又跑不动了,我的GPU太拉胯了,最后batch_size改为4跑的。

小疑问

运行时,CPU的利用率70%+,GPU0的利用率恒为1%,GPU1的利用率不到20%,磁盘利用率大幅增加。为什么CPU的利用率仍然这么高?而GPU的利用率却不是很高?之前用CPU跑的时候,每次CPU的利用率都接近100%。难道是我电脑显卡不好?!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/220630
推荐阅读
相关标签
  

闽ICP备14008679号