当前位置:   article > 正文

loss.item()大坑

loss.item

loss.item()大坑

神经网络时遇到的大坑:代码中所有的loss都直接用loss表示的,结果就是每次迭代,空间占用就会增加,直到cpu或者gup爆炸。
解决办法:把除了loss.backward()之外的loss调用都改成loss.item(),就可以解决。
accuracy也是一样,也得用item()的形式。
原理可以见这里:https://www.zhihu.com/question/67209417/answer/344752405

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/494887
推荐阅读
相关标签
  

闽ICP备14008679号