当前位置:   article > 正文

报错:CUDA out of memory_torch.cuda.outofmemoryerror: cuda out of memory. t

torch.cuda.outofmemoryerror: cuda out of memory. tried to allocate 20.00 mib

报错:

RuntimeError: CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 2.00 GiB total capacity; 1.27 GiB already allocated; 3.24 MiB free; 135.27 MiB cached)

我查了一下发现电脑里面有两个显卡的,默认选择了intel的显卡(即是GPU 0),导致出错。但BATCH_SIZE改为1或者with torch.no_grad()是可以运行的。
在这里插入图片描述
后来我改为nvdia显卡,即是GPU 1,BATCH_SIZE改为16也没有报错。

import os
os.environ["CUDA_VISIBLE_DEVICES"] = "1"
  • 1
  • 2

这样子就可以了。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/220642?site
推荐阅读
相关标签
  

闽ICP备14008679号