当前位置:   article > 正文

for i, batch in enumerate(train_loader)不能正常生成batch的解决方案_for i, (batch_x, batch_y, batch_x_mark, batch_y_ma

for i, (batch_x, batch_y, batch_x_mark, batch_y_mark) in enumerate(train_loa

for i, batch in enumerate(train_loader)不能正常生成batch的解决方案

经过2天的调整,终于解决了这个问题,太开心了,特地记录一下,回报社会!

原因

相信很多人在看完论文都会想debug一下开源项目,但是在debug时我们只需要知道数据的形态变化和训练方法,并不关心训练效果,如果用整个数据集就费时费卡。因此很多人选择用一个小数据集debug。

以我debug的One Thiing One Click为例,预处理的数据集是scannet,处理好的文件放在train_weakly/下,每个场景文件为 ‘xxx_inst_nostuff.pth’。

于是我就从train_weakly/下选择了2个 ‘.pth’ 文件作为debug数据集,但是我没有注意到的是,选用小数据集的同时,一定要修改batch_size!而此时我的batch_size还是项目默认的4, 所以自然无法正常生成batch

于是出现了以下输出:

# check whether a batch can be generated
for id, batch in enumerate(dataset.train_data_loader):
	print(id, batch)
# >> 2222 []
  • 1
  • 2
  • 3
  • 4

当我把batch_size改成1后就能正常生成batch了!(下图)
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/101858
推荐阅读
相关标签
  

闽ICP备14008679号