当前位置:   article > 正文

PyTorch填坑攻略_sizes of tensors must match except in dimension 0.

sizes of tensors must match except in dimension 0. expected size 3 but got s

1 RuntimeError: invalid argument 0: Sizes of tensors must match except in dimension 0

RuntimeError: invalid argument 0: Sizes of tensors must match except in dimension 0. Got 337 and 336 in dimension 3 at /opt/conda/conda-bld/pytorch_1565272279342/work/aten/src/TH/generic/THTensor.cpp:689
解决方法:
这是因为输入的大小不匹配,跟数据集有关,也跟数据预处理中的函数相关:

transforms.Resize(input_size)
  • 1

该函数是按比例缩放,可能是因为该数据集的分辨率不同,所以出来的结果不是(224,224)的,解决办法是改为使用:

transforms.Resize((input_size, input_size))
  • 1

即可
参考资料:
1 pytorch数据预处理错误的解决

2 RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation: [torch.cuda.HalfTensor [16, 256, 20, 20]], which is output 0 of ReluBackward1, is at version 2; expected version 1 instead.

解决方法:
有些时候,往往会遇到比如 Adam 就没有 nan 而 SGD 就会出现 nan,这种通常都是 Loss 设得太大,可以调低学习率试试。
其他可能产生 nan 的地方可以尝试定位下:
1、脏数据,输入有 NaN
2、设置 clip gradient
3、更换初始化参数方法

参考资料:
1 关于 pytorch inplace operation, 需要知道的几件事
2 PyTorch 常见问题整理

3 Expected more than 1 value per channel when training

一个可能的原因是出现了输入 batch_size = 1 的情况

解决方法:

  1. 可以考虑在 DataLoader 属性加上 drop_last=True 解决,它会抛弃掉不够一个 batch size 的情况。
  2. 如果需要 batch_size = 1 的训练方式,还可以考虑把网络中的 BatchNorm 换成 InstanceNorm,或者直接去掉报错位置的BatchNorm 。

参考资料:
1 PyTorch 常见问题整理

4 Can’t call numpy() on Variable that requires grad. Use var.detach().numpy() instead

解决方法:
通常有两种情况:
1) 这个变量是含有训练参数的,需要反向传播,则使用 var.detach().numpy() 获取。
2) 如果这个变量是不进行训练的不需要反向传播,则将相关的代码用(with torch.no_grad())修饰即可

参考资料:
1 PyTorch 常见问题整理

5 TypeError: ToTensor() takes no arguments

类需要实例化

transform = getattr(ctf, t)(**v) if v is not None else getattr(ctf, t)
  • 1

改为

transform = getattr(ctf, t)(**v) if v is not None else getattr(ctf, t)()
  • 1

参考资料:
1 TypeError: ToTensor() takes no arguments

6 Assertion t >= 0 && t < n_classes failed.

void cunn_SpatialClassNLLCriterion_updateOutput_kernel
(T *, T *, T *, long *, T *, int, int, int, int, int, long)
[with T = float, AccumT = float]: 
block: [0,0,0], thread: [277,0,0]
Assertion `t >= 0 && t < n_classes` failed.
  • 1
  • 2
  • 3
  • 4
  • 5

检查三个地方:
a. 标签类别数;
b. 标签中类别的表示,是不是 从 0 到 类别数-1 (最大概率)
c. 网络中输出的类别数
一般如果数据确定没问题,那就是网络输出的问题。

参考资料:
1 BUG解决:SpatialClassNLLCriterion.cu:103:void cunn_SpatialClassNLLCriterion_updateOutput_kernel

7 RuntimeError: Expected object of backend CUDA but got backend CPU for argument #2 ‘other’

原因:变量没有加cuda
data=data.cuda()

8 RuntimeError: arguments are located on different GPUs at /pytorch/aten/src/THC/generic/THCTensorIndex.cu:519

可能的原因1:
在网络外要用到网络中的子模块,却没有加上.module,例如:

if __name__ == '__main__':
    model = yourmodel()
    model = torch.nn.DataParallel(model, device_ids = gpu_id)
    model.to(device)
    if args.run_type == 'train':
        seq.train()  # 单GPU
    elif args.run_type == 'predict':
        seq.predict()  # 单GPU
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

正确的做法:

if __name__ == '__main__':
    model = yourmodel()
    
    model = torch.nn.DataParallel(model, device_ids = gpu_id)
    model.to(device)
    if args.run_type == 'train':
        seq.module.train()  # 多GPU
    elif args.run_type == 'predict':
        seq.module.predict()  # 多GPU
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

可能的原因2:
某一处没有使用".to(device)",例如:

   if self.use_cuda:
        decoder_input = decoder_input.cuda()
        decoder_context = decoder_context.cuda()
  • 1
  • 2
  • 3

正确的做法:

  if self.use_cuda:
        decoder_input = decoder_input.to(device)
        decoder_context = decoder_context.to(device)
  • 1
  • 2
  • 3

9 RuntimeError: copy_if failed to synchronize: device-side assert triggered

问题描述:

这个问题是我在使用SSD做目标检测时遇到的,我要检测的目标有5种类别,所以我在data/config.py中的num_classes参数写了5,经过多方查找,发现了一个没注意到的细节,类别应该是5+1,那个1应该是背景。

还有一个原因就是标签的标号没有从0开始。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/149572
推荐阅读
相关标签
  

闽ICP备14008679号