当前位置:   article > 正文

第三次作业:卷积神经网络基础_shuffle=false

shuffle=false

目录

Part1:视频学习+思考问题

Part2:代码练习 

一、MNIST 数据集分类

卷积神经网络(CNN)

1. 加载数据 (MNIST)

2. 创建网络

3. 在小型全连接网络上训练(Fully-connected network) 

4. 在卷积神经网络上训练 

5. 打乱像素顺序再次在两个网络上训练与测试

二、CIFAR10 数据集分类

三、使用 VGG16 对 CIFAR10 分类

1. 定义 dataloader

2. VGG 网络定义

3. 网络训练

4. 测试验证准确率:


本博客为OUC2022秋季软件工程第三次作业——卷积神经网络基础。

Part1:视频学习+思考问题

朱甲文

1、dataloader 里面 shuffle 取不同值有什么区别?

答:shuffle是bool类型参数,默认数值是False,作用是设置是否将数据集打乱,类似于“洗牌”的效果。设置为True可以在每次迭代训练时将数据集打乱,使数据具有独立性。
2、transform 里,取了不同值,这个有什么区别?

答:transforms模块主要用于对图像进行转换等一系列预处理操作,其主要目的是对图像数据进行增强,进而提高模型的泛化能力。对图像预处理操作有数据中心化,缩放,裁剪等。经过查询,transforms模块有以下常用函数:

①裁剪
transforms.CenterCrop 中心裁剪
transforms.RandomCrop 随机裁剪
②翻转
transforms.RandomHorizontalFlip(p) 依概率p水平翻转
transforms.RandomVerticalFlip(p) 依概率p垂直翻转
③旋转
transforms.RandomRotation 随机旋转
④图像变换
transforms.Resize调整尺寸
transforms.Normalize标准化
transforms.ToTensor转为tensor
transforms.Pad 填充
3、epoch 和 batch 的区别?

答:epoch指的是训练的次数,1个epoch就是指所有的训练集数据走完一遍网络,而batch就是将1轮epoch的数据量进行分割。例如,batch_size = 4就是指将数据量分成4份分别传入模型进行训练。
4、1x1的卷积和 FC 有什么区别?主要起什么作用?

答:卷积跟全连接都是点乘操作,区别在于卷积是作用在一个局部的区域,而全连接是对于整个输入而言。如果我们卷积作用的扩大,就是全连接层

1×1卷积的作用:1*1的卷积可以用于降维(减少通道数),升维(增加通道数),也就是调节通道数,代替FC成为一个分类器;可以增加非线性特性;可以减少参数。

5、residual leanring 为什么能够提升准确率?

答:残差学习可以加深模型的深度而不引起准确度的饱和,有效解决了梯度消失的问题,因此能够提高准确度。
6、代码练习二里,网络和1989年 Lecun 提出的 LeNet 有什么区别?

答:代码练习二中的网络是CNN网络。首先,两种网络的激活函数不同,CNN网络使用了ReLU激活函数,而LeNet使用的是Sigmoid激活函数;其次,CNN的网络结构相比LeNet少了一层池化层;最后,LeNet网络中使用了Softmax分类器,在代码练习二的CNN网络中则没有使用。
7、代码练习二里,卷积以后feature map 尺寸会变小,如何应用 Residual Learning?

答:可以使用1*1的卷积或者使用填充padding的方法来调整feature map的尺寸。
8、有什么方法可以进一步提升准确率?

答:(1)选用合适的激活函数,尝试多种激活函数;

       (2)加深网络的深度;

       (3)优化网络的结构。

赵志豪

1、dataloader 里面 shuffle 取不同值有什么区别?

答:shuuffle的值有True和False两种,表示是否每次输入的数据,True表示打乱,False表示不打乱。
2、transform 里,取了不同值,这个有什么区别?

答:transform表示对图像进行预处理,不同的值代表不同的操作,如

transforms.CenterCrop表示中心裁剪操作;

transforms.RandomCrop表示随机裁剪操作;

transforms.Resize表示调整尺寸操作;

transforms.Normalize表示标准化操作等。
3、epoch 和 batch 的区别?

答:epoch表示训练的次数,batch指每一次训练一个epoch分割的每份。
4、1x1的卷积和 FC 有什么区别?主要起什么作用?

答:1×1卷积和FC输出大小相同,但是FC在一开始根据图像大小设定好不能再变,而1x1卷积可以任意改变;1x1卷积层采用参数共享方式,需要的参数量会比FC层所使用的参数量少,计算速度更快;1x1卷积可以用于降维和升维,代替FC成为一个分类器。
5、residual leanring 为什么能够提升准确率?

答:它通过残差网络结构,使用恒等映射直接将前一层输出传到后面,增加了网络深度;还解决了梯度消失的问题。
6、代码练习二里,网络和1989年 Lecun 提出的 LeNet 有什么区别?

答:模型构造不同。以AlexNet为例,AlexNet网络包含8层,其中包括5层卷积和2层全连接隐藏层,以及1个全连接输出层。

激活函数不同。传统的LeNet网络使用的是sigmoid激活函数,而AlexNet使用的是ReLU函数。ReLU函数比sigmoid函数计算上更为简单,且ReLU函数在不同的参数初始化方法下可以让模型更容易训练。

7、代码练习二里,卷积以后feature map 尺寸会变小,如何应用 Residual Learning?

答:使用1x1卷积改变尺寸。
8、有什么方法可以进一步提升准确率?

答:使用更为精准的数据集进行训练;

选择性能更优的神经网络结构;

修改训练方法等。

钟杰聪

1、dataloader 里面 shuffle 取不同值有什么区别?

答:shuffer=False表示不打乱数据的顺序,用于训练。shuffer=Ture表示在每一次epoch中都打乱所有数据的顺序,用于测试。 
2、transform 里,取了不同值,这个有什么区别?

答:不同的值代表不同种对图像数据进行变换的函数。
3、epoch 和 batch 的区别?

答:epoch是训练次数,batch是指一次训练中输入的一批数据。
4、1x1的卷积和 FC 有什么区别?主要起什么作用?

答:虽然实现方法十分相似,但1*1卷积是相对局部而言的,FC即全连接是相对与整个输入而言的。前者可以实现channel的变换,提升网络的非线性;后者可以对输入的数据进行线性变换,还可以完成最后的分类任务。
5、residual leanring 为什么能够提升准确率?

答:因为避免了网络深度过深时的退化问题。
6、代码练习二里,网络和1989年 Lecun 提出的 LeNet 有什么区别?

答:在两个卷积层和最后一个全连接层后分别加入了ReLU激活函数,但没有最后的softmax。
7、代码练习二里,卷积以后feature map 尺寸会变小,如何应用 Residual Learning?

答:填充padding或者使用1*1的卷积来调整feature map的尺寸使其大小合适。
8、有什么方法可以进一步提升准确率?

答:加深网络深度,调整网络结构。

李浩

1、dataloader 里面 shuffle 取不同值有什么区别?

答:shuffle是bool类型的参数,当shuffle为True时,加载数据集数据时会将数据打乱,shuffle为False时不打乱,打乱顺序会使得每轮训练中的数据序列都不一样,消除了数据排列对训练效果的影响。
2、transform 里,取了不同值,这个有什么区别?

答:Normalize()函数的作用是将数据转换为标准高斯分布,即逐个channel的对图像进行标准化(均值变为0,标准差为1),可以加快模型的收敛。实验中Normalize((0.5,0.5,0.5),(0.5,0.5,0.5)),是对数据进行归一化, Normalize((0.4914, 0.4822, 0.4465),(0.2023, 0.1944, 0.2010))是从数据集中随机抽样计算得到的。
3、epoch 和 batch 的区别?

答:epoch是训练数据集的轮数,bantch是一个epoch内一次批量训练的样本数
4、1x1的卷积和 FC 有什么区别?主要起什么作用?

答:FC多用于卷积神经网络的输出,在整个卷积神经网络中起到“分类器”的作用。而1*1卷积可以减少或增加特征图的层数,可以用在多处进行增维降维。
5、residual leanring 为什么能够提升准确率?

答:在构造深度网络的时候,在增加层数事,由于梯度消失现象,网络的表达能力增强,可是训练精度却下降了,针对此现象,何恺明等人提出了ResNet又名残差神经网络指的是在传统卷积神经网络中加入残差学习(residual learning)

在此结构中,在此模型中,由于x直接连接到下一层,形成了Y=F(x)+x的结构,这样一来,解决了梯度消失现象,可以有效地提升准确率

6、代码练习二里,网络和1989年 Lecun 提出的 LeNet 有什么区别?

答:实验二中网络使用的是最大池,LeNet使用的是平均池;实验二中网络激活函数为ReLu函数,LeNet使用的是sigmoid函数(查找发现还有使用softmax函数实现的)。
7、代码练习二里,卷积以后feature map 尺寸会变小,如何应用 Residual Learning?

答:可以使用带大小为1*1的卷积来改变feature map尺寸使其可以应用Residual learning。
8、有什么方法可以进一步提升准确率?

答:扩大数据集

  算法改进

  优化网络结构等

赵吉林 

1、dataloader 里面 shuffle 取不同值有什么区别?

答:DataLoader中的shuffer=False表示不打乱数据的顺序,然后以batch为单位从头到尾按顺序取用数据。shuffer=Ture表示在每一次epoch中都打乱所有数据的顺序,然后以batch为单位从头到尾按顺序取用数据。

2、transform 里,取了不同值,这个有什么区别?

答:数据变换 Transforms

3、epoch 和 batch 的区别?

答:Epoch : 使用训练集的全部数据对模型进行了一次完整的训练,被称为一代训练
Batch : 使用训练集的一小部分样本对模型权重进行一次反向传播的参数更新,这一小部分样本被称为 一批数据

4、1x1的卷积和 FC 有什么区别?主要起什么作用?

答:1×1卷积核是对输入的每一个特征图进行线性组合,而全连接层是对输入的每一个数进行线性组合。1*1卷积主要是起到了降维、加入非线性、channal 的变换的作用
全连接层就是将最后一层卷积得到的特征图(矩阵)展开成一维向量,并为分类器提供输入。
5、residual leanring 为什么能够提升准确率?

答:有效的避免了梯度消失和梯度爆炸,可以使得网络模型更深

6、代码练习二里,网络和1989年 Lecun 提出的 LeNet 有什么区别?

答:

代码二

LeNet

三通道

单通道

ReLu激活函数

sigmoid激活函数

最大池化

平均池化

7、代码练习二里,卷积以后feature map 尺寸会变小,如何应用 Residual Learning?

答:添加一个1*1的卷积核 进行调整

8、有什么方法可以进一步提升准确率?

答:增加数据集的大小
修改网络结构模型
增加训练的轮数
使用不同的激活函数,交叉熵函数

石昱杲

 1、dataloader 里面 shuffle 取不同值有什么区别?

答:dataloader中设置shuffle值为True,表示每次加载的数据都是随机的,将输入数据的顺序打乱。shuffle值为False,表示输入数据顺序固定。
2、transform 里,取了不同值,这个有什么区别?

答:transform 对数据进行某种统一处理,进行标准化、降维、归一化、正则化等变换操作。
3、epoch 和 batch 的区别?

答:batch大小是在更新模型以前处理的多个样本。epoch数是经过训练数据集的完整传递次数。批处理的大小必须大于或等于1且小于或等于训练数据集中的样本数。能够将epoch设置为1和无穷大之间的整数值。
4、1x1的卷积和 FC 有什么区别?主要起什么作用?

答:1x1的卷积层采用参数共享方式,需要的参数量会比FC层所使用的参数量少,计算速度更快;1*1的卷积可以用于降维;另外,FC全连接层一般处于卷积神经网络尾部,参数通常最多,对于训练样本要求统一尺寸,但是1x1的卷积不会受该规定的限制。
5、residual leanring 为什么能够提升准确率?

答:残差学习通过残差网络结构,使用恒等映射直接将前一层输出传到后面,可以把网络层弄的很深,并且最终的分类效果也非常好,使得整个学习模型的错误率下降。

6、代码练习二里,网络和1989年 Lecun 提出的 LeNet 有什么区别?

答:模型构造不同。以AlexNet为例,AlexNet网络包含8层,其中包括5层卷积和2层全连接隐藏层,以及1个全连接输出层。

激活函数不同。传统的LeNet网络使用的是sigmoid激活函数,而AlexNet使用的是ReLU函数。ReLU函数比sigmoid函数计算上更为简单,且ReLU函数在不同的参数初始化方法下可以让模型更容易训练。

7、代码练习二里,卷积以后feature map 尺寸会变小,如何应用 Residual Learning?

答:Residual Learning在shortcut中采用1x1的卷积,设置步长为2;1x1在卷积的时候设置输出维度为残差连接相同的维度,上述操作也被称为线性变换,进而对大小不同的feature map进行调整。
8、有什么方法可以进一步提升准确率?

答:使用特征更明显、分类更合理的数据集,对数据预处理

选择性能最优的神经网络结构,例如: VGG、Resnet、谷歌的 Inception 网络等

选择合适的优化器、损失函数、激活函数

Part2:代码练习 

一、MNIST 数据集分类

卷积神经网络(CNN)

Outline

  • 今天我们学习如何使用 PyTorch 进行CNN的训练与测试
  • 我们还会展示池化与卷积操作的作用

深度卷积神经网络中,有如下特性

  • 很多层: compositionality
  • 卷积: locality + stationarity of images
  • 池化: Invariance of object class to translations
  1. import torch
  2. import torch.nn as nn
  3. import torch.nn.functional as F
  4. import torch.optim as optim
  5. from torchvision import datasets, transforms
  6. import matplotlib.pyplot as plt
  7. import numpy
  8. # 一个函数,用来计算模型中有多少参数
  9. def get_n_params(model):
  10. np=0
  11. for p in list(model.parameters()):
  12. np += p.nelement()
  13. return np
  14. # 使用GPU训练,可以在菜单 "代码执行工具" -> "更改运行时类型" 里进行设置
  15. device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

1. 加载数据 (MNIST)

PyTorch里包含了 MNIST, CIFAR10 等常用数据集,调用 torchvision.datasets 即可把这些数据由远程下载到本地,下面给出MNIST的使用方法:

torchvision.datasets.MNIST(root, train=True, transform=None, target_transform=None, download=False)

  • root 为数据集下载到本地后的根目录,包括 training.pt 和 test.pt 文件
  • train,如果设置为True,从training.pt创建数据集,否则从test.pt创建。
  • download,如果设置为True, 从互联网下载数据并放到root文件夹下
  • transform, 一种函数或变换,输入PIL图片,返回变换之后的数据。
  • target_transform 一种函数或变换,输入目标,进行变换。

另外值得注意的是,DataLoader是一个比较重要的类,提供的常用操作有:batch_size(每个batch的大小), shuffle(是否进行随机打乱顺序的操作), num_workers(加载数据的时候使用几个子进程)

  1. input_size = 28*28 # MNIST上的图像尺寸是 28x28
  2. output_size = 10 # 类别为 0 到 9 的数字,因此为十类
  3. train_loader = torch.utils.data.DataLoader(
  4. datasets.MNIST('./data', train=True, download=True,
  5. transform=transforms.Compose(
  6. [transforms.ToTensor(),
  7. transforms.Normalize((0.1307,), (0.3081,))])),
  8. batch_size=64, shuffle=True)
  9. test_loader = torch.utils.data.DataLoader(
  10. datasets.MNIST('./data', train=False, transform=transforms.Compose([
  11. transforms.ToTensor(),
  12. transforms.Normalize((0.1307,), (0.3081,))])),
  13. batch_size=1000, shuffle=True)

 显示数据集中的部分图像

  1. plt.figure(figsize=(8, 5))
  2. for i in range(20):
  3. plt.subplot(4, 5, i + 1)
  4. image, _ = train_loader.dataset.__getitem__(i)
  5. plt.imshow(image.squeeze().numpy(),'gray')
  6. plt.axis('off');

 我们可以看到,此时数据集图像可以正常显示,说明我们上面的数据及加载并未出现问题。

2. 创建网络

定义网络时,需要继承nn.Module,并实现它的forward方法,把网络中具有可学习参数的层放在构造函数init中。

只要在nn.Module的子类中定义了forward函数,backward函数就会自动被实现(利用autograd)。

  1. class FC2Layer(nn.Module):
  2. def __init__(self, input_size, n_hidden, output_size):
  3. # nn.Module子类的函数必须在构造函数中执行父类的构造函数
  4. # 下式等价于nn.Module.__init__(self)
  5. super(FC2Layer, self).__init__()
  6. self.input_size = input_size
  7. # 这里直接用 Sequential 就定义了网络,注意要和下面 CNN 的代码区分开
  8. self.network = nn.Sequential(
  9. nn.Linear(input_size, n_hidden),
  10. nn.ReLU(),
  11. nn.Linear(n_hidden, n_hidden),
  12. nn.ReLU(),
  13. nn.Linear(n_hidden, output_size),
  14. nn.LogSoftmax(dim=1)
  15. )
  16. def forward(self, x):
  17. # view一般出现在model类的forward函数中,用于改变输入或输出的形状
  18. # x.view(-1, self.input_size) 的意思是多维的数据展成二维
  19. # 代码指定二维数据的列数为 input_size=784,行数 -1 表示我们不想算,电脑会自己计算对应的数字
  20. # 在 DataLoader 部分,我们可以看到 batch_size 是64,所以得到 x 的行数是64
  21. # 大家可以加一行代码:print(x.cpu().numpy().shape)
  22. # 训练过程中,就会看到 (64, 784) 的输出,和我们的预期是一致的
  23. # forward 函数的作用是,指定网络的运行过程,这个全连接网络可能看不啥意义,
  24. # 下面的CNN网络可以看出 forward 的作用。
  25. x = x.view(-1, self.input_size)
  26. return self.network(x)
  27. class CNN(nn.Module):
  28. def __init__(self, input_size, n_feature, output_size):
  29. # 执行父类的构造函数,所有的网络都要这么写
  30. super(CNN, self).__init__()
  31. # 下面是网络里典型结构的一些定义,一般就是卷积和全连接
  32. # 池化、ReLU一类的不用在这里定义
  33. self.n_feature = n_feature
  34. self.conv1 = nn.Conv2d(in_channels=1, out_channels=n_feature, kernel_size=5)
  35. self.conv2 = nn.Conv2d(n_feature, n_feature, kernel_size=5)
  36. self.fc1 = nn.Linear(n_feature*4*4, 50)
  37. self.fc2 = nn.Linear(50, 10)
  38. # 下面的 forward 函数,定义了网络的结构,按照一定顺序,把上面构建的一些结构组织起来
  39. # 意思就是,conv1, conv2 等等的,可以多次重用
  40. def forward(self, x, verbose=False):
  41. x = self.conv1(x)
  42. x = F.relu(x)
  43. x = F.max_pool2d(x, kernel_size=2)
  44. x = self.conv2(x)
  45. x = F.relu(x)
  46. x = F.max_pool2d(x, kernel_size=2)
  47. x = x.view(-1, self.n_feature*4*4)
  48. x = self.fc1(x)
  49. x = F.relu(x)
  50. x = self.fc2(x)
  51. x = F.log_softmax(x, dim=1)
  52. return x

 定义训练和测试函数

  1. # 训练函数
  2. def train(model):
  3. model.train()
  4. # 主里从train_loader里,64个样本一个batch为单位提取样本进行训练
  5. for batch_idx, (data, target) in enumerate(train_loader):
  6. # 把数据送到GPU中
  7. data, target = data.to(device), target.to(device)
  8. optimizer.zero_grad()
  9. output = model(data)
  10. loss = F.nll_loss(output, target)
  11. loss.backward()
  12. optimizer.step()
  13. if batch_idx % 100 == 0:
  14. print('Train: [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format(
  15. batch_idx * len(data), len(train_loader.dataset),
  16. 100. * batch_idx / len(train_loader), loss.item()))
  17. def test(model):
  18. model.eval()
  19. test_loss = 0
  20. correct = 0
  21. for data, target in test_loader:
  22. # 把数据送到GPU中
  23. data, target = data.to(device), target.to(device)
  24. # 把数据送入模型,得到预测结果
  25. output = model(data)
  26. # 计算本次batch的损失,并加到 test_loss 中
  27. test_loss += F.nll_loss(output, target, reduction='sum').item()
  28. # get the index of the max log-probability,最后一层输出10个数,
  29. # 值最大的那个即对应着分类结果,然后把分类结果保存在 pred 里
  30. pred = output.data.max(1, keepdim=True)[1]
  31. # 将 pred 与 target 相比,得到正确预测结果的数量,并加到 correct 中
  32. # 这里需要注意一下 view_as ,意思是把 target 变成维度和 pred 一样的意思
  33. correct += pred.eq(target.data.view_as(pred)).cpu().sum().item()
  34. test_loss /= len(test_loader.dataset)
  35. accuracy = 100. * correct / len(test_loader.dataset)
  36. print('\nTest set: Average loss: {:.4f}, Accuracy: {}/{} ({:.0f}%)\n'.format(
  37. test_loss, correct, len(test_loader.dataset),
  38. accuracy))

3. 在小型全连接网络上训练(Fully-connected network) 

  1. n_hidden = 8 # number of hidden units
  2. model_fnn = FC2Layer(input_size, n_hidden, output_size)
  3. model_fnn.to(device)
  4. optimizer = optim.SGD(model_fnn.parameters(), lr=0.01, momentum=0.5)
  5. print('Number of parameters: {}'.format(get_n_params(model_fnn)))
  6. train(model_fnn)
  7. test(model_fnn)

可以看到,整个训练过程中loss逐渐减小,平均值达到了0.4320,精度达到了88%。 

4. 在卷积神经网络上训练 

需要注意的是,上面定义的CNN和全连接网络,拥有相同数量的模型参数

  1. # Training settings
  2. n_features = 6 # number of feature maps
  3. model_cnn = CNN(input_size, n_features, output_size)
  4. model_cnn.to(device)
  5. optimizer = optim.SGD(model_cnn.parameters(), lr=0.01, momentum=0.5)
  6. print('Number of parameters: {}'.format(get_n_params(model_cnn)))
  7. train(model_cnn)
  8. test(model_cnn)

 可以看到,在卷积神经网络上的训练过程中loss平均值达到了0.1575,精度达到了95%。,明显高于上面的小型全连接网络。

通过上面的测试结果,可以发现,含有相同参数的 CNN 效果要明显优于 简单的全连接网络,是因为 CNN 能够更好的挖掘图像中的信息,主要通过两个手段:

  • 卷积:Locality and stationarity in images
  • 池化:Builds in some translation invariance

5. 打乱像素顺序再次在两个网络上训练与测试

考虑到CNN在卷积与池化上的优良特性,如果我们把图像中的像素打乱顺序,这样 卷积 和 池化 就难以发挥作用了,为了验证这个想法,我们把图像中的像素打乱顺序再试试。

首先下面代码展示随机打乱像素顺序后,图像的形态:

  1. # 这里解释一下 torch.randperm 函数,给定参数n,返回一个从0到n-1的随机整数排列
  2. perm = torch.randperm(784)
  3. plt.figure(figsize=(8, 4))
  4. for i in range(10):
  5. image, _ = train_loader.dataset.__getitem__(i)
  6. # permute pixels
  7. image_perm = image.view(-1, 28*28).clone()
  8. image_perm = image_perm[:, perm]
  9. image_perm = image_perm.view(-1, 1, 28, 28)
  10. plt.subplot(4, 5, i + 1)
  11. plt.imshow(image.squeeze().numpy(), 'gray')
  12. plt.axis('off')
  13. plt.subplot(4, 5, i + 11)
  14. plt.imshow(image_perm.squeeze().numpy(), 'gray')
  15. plt.axis('off')

重新定义训练与测试函数,我们写了两个函数 train_perm 和 test_perm,分别对应着加入像素打乱顺序的训练函数与测试函数。

与之前的训练与测试函数基本上完全相同,只是对 data 加入了打乱顺序操作。

  1. # 对每个 batch 里的数据,打乱像素顺序的函数
  2. def perm_pixel(data, perm):
  3. # 转化为二维矩阵
  4. data_new = data.view(-1, 28*28)
  5. # 打乱像素顺序
  6. data_new = data_new[:, perm]
  7. # 恢复为原来4维的 tensor
  8. data_new = data_new.view(-1, 1, 28, 28)
  9. return data_new
  10. # 训练函数
  11. def train_perm(model, perm):
  12. model.train()
  13. for batch_idx, (data, target) in enumerate(train_loader):
  14. data, target = data.to(device), target.to(device)
  15. # 像素打乱顺序
  16. data = perm_pixel(data, perm)
  17. optimizer.zero_grad()
  18. output = model(data)
  19. loss = F.nll_loss(output, target)
  20. loss.backward()
  21. optimizer.step()
  22. if batch_idx % 100 == 0:
  23. print('Train: [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format(
  24. batch_idx * len(data), len(train_loader.dataset),
  25. 100. * batch_idx / len(train_loader), loss.item()))
  26. # 测试函数
  27. def test_perm(model, perm):
  28. model.eval()
  29. test_loss = 0
  30. correct = 0
  31. for data, target in test_loader:
  32. data, target = data.to(device), target.to(device)
  33. # 像素打乱顺序
  34. data = perm_pixel(data, perm)
  35. output = model(data)
  36. test_loss += F.nll_loss(output, target, reduction='sum').item()
  37. pred = output.data.max(1, keepdim=True)[1]
  38. correct += pred.eq(target.data.view_as(pred)).cpu().sum().item()
  39. test_loss /= len(test_loader.dataset)
  40. accuracy = 100. * correct / len(test_loader.dataset)
  41. print('\nTest set: Average loss: {:.4f}, Accuracy: {}/{} ({:.0f}%)\n'.format(
  42. test_loss, correct, len(test_loader.dataset),
  43. accuracy))

 在全连接网络上训练与测试:

  1. perm = torch.randperm(784)
  2. n_hidden = 8 # number of hidden units
  3. model_fnn = FC2Layer(input_size, n_hidden, output_size)
  4. model_fnn.to(device)
  5. optimizer = optim.SGD(model_fnn.parameters(), lr=0.01, momentum=0.5)
  6. print('Number of parameters: {}'.format(get_n_params(model_fnn)))
  7. train_perm(model_fnn, perm)
  8. test_perm(model_fnn, perm)

在卷积神经网络上训练与测试:

  1. perm = torch.randperm(784)
  2. n_features = 6 # number of feature maps
  3. model_cnn = CNN(input_size, n_features, output_size)
  4. model_cnn.to(device)
  5. optimizer = optim.SGD(model_cnn.parameters(), lr=0.01, momentum=0.5)
  6. print('Number of parameters: {}'.format(get_n_params(model_cnn)))
  7. train_perm(model_cnn, perm)
  8. test_perm(model_cnn, perm)

从打乱像素顺序的实验结果来看,全连接网络的性能基本上没有发生变化,但是 卷积神经网络的性能明显下降。

这是因为对于卷积神经网络,会利用像素的局部关系,但是打乱顺序以后,这些像素间的关系将无法得到利用。

二、CIFAR10 数据集分类

对于视觉数据,PyTorch 创建了一个叫做 totchvision 的包,该包含有支持加载类似Imagenet,CIFAR10,MNIST 等公共数据集的数据加载模块 torchvision.datasets 和支持加载图像数据数据转换模块 torch.utils.data.DataLoader。

下面将使用CIFAR10数据集,它包含十个类别:‘airplane’, ‘automobile’, ‘bird’, ‘cat’, ‘deer’, ‘dog’, ‘frog’, ‘horse’, ‘ship’, ‘truck’。CIFAR-10 中的图像尺寸为3x32x32,也就是RGB的3层颜色通道,每层通道内的尺寸为32*32。

首先,加载并归一化 CIFAR10 使用 torchvision 。torchvision 数据集的输出是范围在[0,1]之间的 PILImage,我们将他们转换成归一化范围为[-1,1]之间的张量 Tensors。

大家肯定好奇,下面代码中说的是 0.5,怎么就变化到[-1,1]之间了?PyTorch源码中是这么写的:

input[channel] = (input[channel] - mean[channel]) / std[channel]

 这样就是:((0,1)-0.5)/0.5=(-1,1)。

  1. import torch
  2. import torchvision
  3. import torchvision.transforms as transforms
  4. import matplotlib.pyplot as plt
  5. import numpy as np
  6. import torch.nn as nn
  7. import torch.nn.functional as F
  8. import torch.optim as optim
  9. # 使用GPU训练,可以在菜单 "代码执行工具" -> "更改运行时类型" 里进行设置
  10. device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
  11. transform = transforms.Compose(
  12. [transforms.ToTensor(),
  13. transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
  14. # 注意下面代码中:训练的 shuffle 是 True,测试的 shuffle 是 false
  15. # 训练时可以打乱顺序增加多样性,测试是没有必要
  16. trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
  17. download=True, transform=transform)
  18. trainloader = torch.utils.data.DataLoader(trainset, batch_size=64,
  19. shuffle=True, num_workers=2)
  20. testset = torchvision.datasets.CIFAR10(root='./data', train=False,
  21. download=True, transform=transform)
  22. testloader = torch.utils.data.DataLoader(testset, batch_size=8,
  23. shuffle=False, num_workers=2)
  24. classes = ('plane', 'car', 'bird', 'cat',
  25. 'deer', 'dog', 'frog', 'horse', 'ship', 'truck')

 下面展示 CIFAR10 里面的一些图片:

  1. def imshow(img):
  2. plt.figure(figsize=(8,8))
  3. img = img / 2 + 0.5 # 转换到 [0,1] 之间
  4. npimg = img.numpy()
  5. plt.imshow(np.transpose(npimg, (1, 2, 0)))
  6. plt.show()
  7. # 得到一组图像
  8. images, labels = iter(trainloader).next()
  9. # 展示图像
  10. imshow(torchvision.utils.make_grid(images))
  11. # 展示第一行图像的标签
  12. for j in range(8):
  13. print(classes[labels[j]])

接下来定义网络,损失函数和优化器:

  1. class Net(nn.Module):
  2. def __init__(self):
  3. super(Net, self).__init__()
  4. self.conv1 = nn.Conv2d(3, 6, 5)
  5. self.pool = nn.MaxPool2d(2, 2)
  6. self.conv2 = nn.Conv2d(6, 16, 5)
  7. self.fc1 = nn.Linear(16 * 5 * 5, 120)
  8. self.fc2 = nn.Linear(120, 84)
  9. self.fc3 = nn.Linear(84, 10)
  10. def forward(self, x):
  11. x = self.pool(F.relu(self.conv1(x)))
  12. x = self.pool(F.relu(self.conv2(x)))
  13. x = x.view(-1, 16 * 5 * 5)
  14. x = F.relu(self.fc1(x))
  15. x = F.relu(self.fc2(x))
  16. x = self.fc3(x)
  17. return x
  18. # 网络放到GPU上
  19. net = Net().to(device)
  20. criterion = nn.CrossEntropyLoss()
  21. optimizer = optim.Adam(net.parameters(), lr=0.001)

 训练网络:

  1. for epoch in range(10): # 重复多轮训练
  2. for i, (inputs, labels) in enumerate(trainloader):
  3. inputs = inputs.to(device)
  4. labels = labels.to(device)
  5. # 优化器梯度归零
  6. optimizer.zero_grad()
  7. # 正向传播 + 反向传播 + 优化
  8. outputs = net(inputs)
  9. loss = criterion(outputs, labels)
  10. loss.backward()
  11. optimizer.step()
  12. # 输出统计信息
  13. if i % 100 == 0:
  14. print('Epoch: %d Minibatch: %5d loss: %.3f' %(epoch + 1, i + 1, loss.item()))
  15. print('Finished Training')

现在我们从测试集中取出8张图片:

  1. # 得到一组图像
  2. images, labels = iter(testloader).next()
  3. # 展示图像
  4. imshow(torchvision.utils.make_grid(images))
  5. # 展示图像的标签
  6. for j in range(8):
  7. print(classes[labels[j]])

 我们把图片输入模型,看看CNN把这些图片识别成什么:

  1. outputs = net(images.to(device))
  2. _, predicted = torch.max(outputs, 1)
  3. # 展示预测的结果
  4. for j in range(8):
  5. print(classes[predicted[j]])

可以看到,有几个都识别错了~~~ 让我们看看网络在整个数据集上的表现:

  1. correct = 0
  2. total = 0
  3. for data in testloader:
  4. images, labels = data
  5. images, labels = images.to(device), labels.to(device)
  6. outputs = net(images)
  7. _, predicted = torch.max(outputs.data, 1)
  8. total += labels.size(0)
  9. correct += (predicted == labels).sum().item()
  10. print('Accuracy of the network on the 10000 test images: %d %%' % (
  11. 100 * correct / total))

 准确率还可以,通过改进网络结构,性能还可以进一步提升。

三、使用 VGG16 对 CIFAR10 分类

VGG是由Simonyan 和Zisserman在文献《Very Deep Convolutional Networks for Large Scale Image Recognition》中提出卷积神经网络模型,其名称来源于作者所在的牛津大学视觉几何组(Visual Geometry Group)的缩写。

该模型参加2014年的 ImageNet图像分类与定位挑战赛,取得了优异成绩:在分类任务上排名第二,在定位任务上排名第一。

VGG16的网络结构如下图所示:

16层网络的结节信息如下:

  • 01:Convolution using 64 filters
  • 02: Convolution using 64 filters + Max pooling
  • 03: Convolution using 128 filters
  • 04: Convolution using 128 filters + Max pooling
  • 05: Convolution using 256 filters
  • 06: Convolution using 256 filters
  • 07: Convolution using 256 filters + Max pooling
  • 08: Convolution using 512 filters
  • 09: Convolution using 512 filters
  • 10: Convolution using 512 filters + Max pooling
  • 11: Convolution using 512 filters
  • 12: Convolution using 512 filters
  • 13: Convolution using 512 filters + Max pooling
  • 14: Fully connected with 4096 nodes
  • 15: Fully connected with 4096 nodes
  • 16: Softmax

1. 定义 dataloader

需要注意的是,这里的 transform,dataloader 和之前定义的有所不同,大家自己体会。

  1. import torch
  2. import torchvision
  3. import torchvision.transforms as transforms
  4. import matplotlib.pyplot as plt
  5. import numpy as np
  6. import torch.nn as nn
  7. import torch.nn.functional as F
  8. import torch.optim as optim
  9. # 使用GPU训练,可以在菜单 "代码执行工具" -> "更改运行时类型" 里进行设置
  10. device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
  11. transform_train = transforms.Compose([
  12. transforms.RandomCrop(32, padding=4),
  13. transforms.RandomHorizontalFlip(),
  14. transforms.ToTensor(),
  15. transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010))])
  16. transform_test = transforms.Compose([
  17. transforms.ToTensor(),
  18. transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010))])
  19. trainset = torchvision.datasets.CIFAR10(root='./data', train=True, download=True, transform=transform_train)
  20. testset = torchvision.datasets.CIFAR10(root='./data', train=False, download=True, transform=transform_test)
  21. trainloader = torch.utils.data.DataLoader(trainset, batch_size=128, shuffle=True, num_workers=2)
  22. testloader = torch.utils.data.DataLoader(testset, batch_size=128, shuffle=False, num_workers=2)
  23. classes = ('plane', 'car', 'bird', 'cat',
  24. 'deer', 'dog', 'frog', 'horse', 'ship', 'truck')

2. VGG 网络定义

下面定义VGG网络,现在的结构基本上是:

64 conv, maxpooling,

128 conv, maxpooling,

256 conv, 256 conv, maxpooling,

512 conv, 512 conv, maxpooling,

512 conv, 512 conv, maxpooling,

softmax

下面是模型的实现代码:

  1. class VGG(nn.Module):
  2. def __init__(self):
  3. super(VGG, self).__init__()
  4. self.cfg = [64, 'M', 128, 'M', 256, 256, 'M', 512, 512, 'M', 512, 512, 'M']
  5. self.features = self._make_layers(cfg)
  6. self.classifier = nn.Linear(2048, 10)
  7. def forward(self, x):
  8. out = self.features(x)
  9. out = out.view(out.size(0), -1)
  10. out = self.classifier(out)
  11. return out
  12. def _make_layers(self, cfg):
  13. layers = []
  14. in_channels = 3
  15. for x in cfg:
  16. if x == 'M':
  17. layers += [nn.MaxPool2d(kernel_size=2, stride=2)]
  18. else:
  19. layers += [nn.Conv2d(in_channels, x, kernel_size=3, padding=1),
  20. nn.BatchNorm2d(x),
  21. nn.ReLU(inplace=True)]
  22. in_channels = x
  23. layers += [nn.AvgPool2d(kernel_size=1, stride=1)]
  24. return nn.Sequential(*layers)

初始化网络,根据实际需要,修改分类层。因为 tiny-imagenet 是对200类图像分类,这里把输出修改为200。

首次运行以下代码时会发生报错, 经过检查,是上面的代码中的cfg需要改为self.cfg,修改后如图:

  1. # 网络放到GPU上
  2. net = VGG().to(device)
  3. criterion = nn.CrossEntropyLoss()
  4. optimizer = optim.Adam(net.parameters(), lr=0.001)

 修改后,代码成功运行。

3. 网络训练

训练的代码和以前是完全一样的:

  1. for epoch in range(10): # 重复多轮训练
  2. for i, (inputs, labels) in enumerate(trainloader):
  3. inputs = inputs.to(device)
  4. labels = labels.to(device)
  5. # 优化器梯度归零
  6. optimizer.zero_grad()
  7. # 正向传播 + 反向传播 + 优化
  8. outputs = net(inputs)
  9. loss = criterion(outputs, labels)
  10. loss.backward()
  11. optimizer.step()
  12. # 输出统计信息
  13. if i % 100 == 0:
  14. print('Epoch: %d Minibatch: %5d loss: %.3f' %(epoch + 1, i + 1, loss.item()))
  15. print('Finished Training')

该代码运行后再次出现报错,如下图所示。于是,我们需要在上面的代码中将mat2的维度改为512×10,此时mat1和mat2可以相乘。

 修改后的代码如下图所示:

修改完成后,代码就可以成功运行,如下图所示。

4. 测试验证准确率:

测试的代码和之前也是完全一样的。

  1. correct = 0
  2. total = 0
  3. for data in testloader:
  4. images, labels = data
  5. images, labels = images.to(device), labels.to(device)
  6. outputs = net(images)
  7. _, predicted = torch.max(outputs.data, 1)
  8. total += labels.size(0)
  9. correct += (predicted == labels).sum().item()
  10. print('Accuracy of the network on the 10000 test images: %.2f %%' % (
  11. 100 * correct / total))

可以看到,使用一个简化版的 VGG 网络,就能够显著地将准确率由 64%,提升到 84.92% 

本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号