赞
踩
跑神经网络时遇到的大坑:代码中所有的loss都直接用loss表示的,结果就是每次迭代,空间占用就会增加,直到cpu或者gup爆炸。
解决办法:把除了loss.backward()之外的loss调用都改成loss.item(),就可以解决。
accuracy也是一样,也得用item()的形式。
原理可以见这里:https://www.zhihu.com/question/67209417/answer/344752405
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。