当前位置:   article > 正文

kaggle 深度学习训练内存不够_kaggle内存不够

kaggle内存不够

kaggle上训练VGG网络,为了实现一个可视化算法,运用了pytorch中的hook机制。
但是在训练中出现了爆内存的现象,总结一下几种解决办法:

  • 无关的变量使用完要删掉
import gc
del variables
gc.collect()
  • 1
  • 2
  • 3
  • 使用hook机制,如果多次使用,一定要每次用完就删除掉,否则多次重复register_hook,会叠加,占用很多内存空间
handle = model.register_forward_hook(fn)
handle.remove()
  • 1
  • 2
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/269921
推荐阅读
相关标签
  

闽ICP备14008679号