赞
踩
在使用Dataloader读取数据的时候,使用batch_size=1不会出现这个问题。当batch_size>1时, 默认将会使用torch.stack()为你生成一个[batch,x, x, x] 的tensor数据,在使用该函数时需要输入的两个tensor维度一样。
1、注意自己图像的大小是否resize到相同尺寸。
2、图像的通道数是否相同,全彩色或全灰度,使用相同的类型。
3、如果是CNN的多标签分类,标签长度不同也可以用下面的办法。
3、在进行目标检测的时候,我们返回的不仅仅是图像数据,还有它的gt_box以及gt_label。但是每个图像的标签个数不是相同的,所以在使用Dataloader原始的参数时也会报错。此时可以自己写一个 collate_fn函数,因为我的返回为图像、目标框以及类别标签所以修改如下
- def data_collate(batch):
- gt_box = []
- gt_label = []
- imgs = []
- for info in batch:
- imgs.append(info[0])
- gt_box.append(info[1])
- gt_label.append(info[2])
- return torch.stack(imgs, 0), gt_box,gt_label
train里面调用:DataLoader(data_mine, batch_size=2,collate_fn=data_collate, shuffle=True, num_workers=2)
根据自己重写的Dataset类的返回值修改上面,得到自己想要的数据。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。