赞
踩
我认为对于 GPU 内存较低的 PyTorch 用户来说,这是一个非常常见的消息:
RuntimeError: CUDA out of memory. Tried to allocate X MiB (GPU X; X GiB total capacity; X GiB already allocated; X MiB free; X cached)
我尝试通过将每一层加载到 GPU 然后加载回来来处理图像:
- for m in self.children():
- m.cuda()
- x = m(x)
- m.cpu()
- torch.cuda.empty_cache()
但似乎效果不是很大。虽然
- import torch
- torch.cuda.empty_cache()
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。