当前位置:   article > 正文

【Pytorch学习笔记】MNIST数据集的训练及简单应用(一)_mnist训练完怎么用

mnist训练完怎么用

零、简单介绍

pytorch是一个开源的深度学习的框架。其本质是一个基于Python的科学计算包,能提供最大的灵活性和效率。

MNIST数据集包含70,000张手写数字的图像及标签。其中 60,000张用于训练,10,000张用于测试。图像是灰度的,28x28像素,并且居中的,以减少预处理和加快运行。如下图所示:

CNN卷积神经网络,参见这个介绍。一个简单的卷积神经网络可包括卷积层,池化层,和全连接层。就是说,训练好之后,给这个网络输入一张手写数字的图片,经过这些个层之后,就可以输出这个数字。训练的过程就是不断根据训练集中的具体的图片及其对应的标签(即数字),来不断调整网络中的各参数以更新优化这个网络,使其能达到不错的准确率的过程。

OpenCV,功能强大的数字图像处理库,这个网上的介绍就太多了。

一、效果展示

 其中:右上角的窗口展示的是通过笔记本摄像头捕获的原图像右下角窗口展示的是预处理之后,即转换为灰度图,滤波,反向二值化之后的图像;左上角展示的是即将输入进模型中的图像;下方窗口输出的predicted number即是模型输出的预测结果,是不断刷新的。

二、功能实现

整体分为两个大的部分:1.训练模型;2.使用模型。

首先是训练模型:参照的这个教程

第一步:导入需要的包

  1. import torch
  2. from torch.utils.data import DataLoader
  3. from torchvision import datasets
  4. from torchvision import transforms
  5. import torch.nn.functional as F
  6. #import cv2
  7. #import os
  8. import matplotlib.pyplot as plt

其中torch用于实现深度学习,pyplot实现绘图以可视化训练结果

第二步:准备数据集(包括训练集和测试集)

  1. batch_size = 64 #设置batch大小
  2. transform = transforms.Compose([
  3. transforms.ToTensor(), #转换为张量
  4. transforms.Normalize((0.1307,), (0.3081,)) #设定标准化值
  5. ])
  6. #训练集
  7. train_dataset = datasets.MNIST(
  8. root='./data',
  9. train=True,
  10. transform=transform,
  11. download=True)
  12. #测试集
  13. test_dataset = datasets.MNIST(
  14. root='./data',
  15. train=False,
  16. transform=transform,
  17. download=True)
  18. #训练集加载器
  19. train_loader = DataLoader(dataset=train_dataset,
  20. batch_size=batch_size,
  21. shuffle=True)
  22. #测试集加载器
  23. test_loader = DataLoader(dataset=test_dataset,
  24. batch_size=batch_size,
  25. shuffle=False)

首先,设定batch大小(几句话搞懂什么是batch);定义transform操作。这个操作的目的是对原始图像进行预处理,主要是要将其转换为张量,才能送进神经网络中。

其次,定义训练集,测试集。这里dataset的目的是定义MNIST数据集,使用提供的detasets.MNIST()函数。里边需要指定路径,是否为训练集,transform操作(就是刚才定义好的),是否自动从网上下载等。

然后,定义训练集、测试集的加载器。类似一个集合(?),将训练集,测试集准备好放在里边。需要设定的参数有数据来源(即刚才的dataset),batch大小,是否需要打乱顺序等。

第三步:设计模型

  1. # 设计模型 CNN
  2. class CNN(torch.nn.Module):
  3. def __init__(self):
  4. super(CNN, self).__init__()
  5. self.conv1 = torch.nn.Conv2d(1, 10, kernel_size=(5,5)) #卷积层1
  6. self.conv2 = torch.nn.Conv2d(10, 20, kernel_size=(5,5)) #卷积层2
  7. self.pooling = torch.nn.MaxPool2d(2) #池化层
  8. self.fc1 = torch.nn.Linear(320, 256) #全连接层1
  9. self.fc2 = torch.nn.Linear(256, 128) #全连接层2
  10. self.fc3 = torch.nn.Linear(128, 10) #全连接层3
  11. def forward(self, x):
  12. batch_size = x.size(0)
  13. x = F.relu(self.pooling(self.conv1(x))) #卷积层1->池化层->激活函数Relu
  14. x = F.relu(self.pooling(self.conv2(x))) #卷积层2->池化层->激活函数Relu
  15. x = x.view(batch_size, -1) #改变张量的维度
  16. x = self.fc1(x) #全连接层1
  17. x = self.fc2(x) #全连接层2
  18. x = self.fc3(x) #全连接层3
  19. return x
  20. model = CNN() #实例化(?)模型为model

定义了2个卷积层和3个全连接层

整体如上图所示,(其中池化层和激活函数的顺序交换了一下)

第四步:构造损失和优化函数

  1. # 构造损失函数和优化函数
  2. # 损失
  3. criterion = torch.nn.CrossEntropyLoss()
  4. # 优化
  5. optimizer = torch.optim.SGD(model.parameters(), lr=0.1, momentum=0.5)

损失函数使用交叉熵损失,适用于多分类问题

优化函数使用随机梯度下降算法SGD,学习率设置为0.1

第五步:定义训练函数

  1. def train(epoch):
  2. running_loss = 0.0 #每一轮训练重新记录损失值
  3. for batch_idx, data in enumerate(train_loader, 0): #提取训练集中每一个样本
  4. inputs, target = data
  5. optimizer.zero_grad() #将梯度归零
  6. #print(inputs.shape)
  7. outputs = model(inputs) #代入模型
  8. loss = criterion(outputs, target) #计算损失值
  9. loss.backward() #反向传播计算得到每个参数的梯度值
  10. optimizer.step() #梯度下降参数更新
  11. running_loss += loss.item() #损失值累加
  12. if batch_idx % 300 == 299: #每300个样本输出一下结果
  13. print('[%d,%5d] loss: %.3f' % (epoch + 1, batch_idx + 1, running_loss / 300))
  14. running_loss = 0.0 # (训练轮次, 该轮的样本次, 平均损失值)
  15. return running_loss

第六步:定义测试函数

  1. def test():
  2. correct = 0
  3. total = 0
  4. with torch.no_grad(): #执行计算,但不希望在反向传播中被记录
  5. for data in test_loader: #提取测试集中每一个样本
  6. images, labels = data
  7. outputs = model(images) #带入模型
  8. _, pred = torch.max(outputs.data, dim=1) #获得结果中的最大值
  9. total += labels.size(0) #测试数++
  10. correct += (pred == labels).sum().item() #将预测结果pred与标签labels对比,相同则正确数++
  11. """
  12. print("imageshape", images.shape)
  13. print("outputshape", outputs.shape)
  14. print("_ is", _.shape, _)
  15. print("pred is", pred.shape, pred)
  16. print("label is", labels)
  17. """
  18. print('%d %%' % (100 * correct / total)) #输出正确率

简单定义一下主函数

  1. if __name__ == '__main__':
  2. lossy = [] #定义存放纵轴数据(损失值)的列表
  3. epochx = [] #定义存放横轴数据(训练轮数)的列表
  4. #path = "C:/Users/yas/Desktop/pytorch/MNIST/model/model1.pth"
  5. for epoch in range(10): #训练10轮
  6. epochx.append(epoch) #将本轮轮次存入epochy列表
  7. lossy.append(train(epoch)) #执行训练,将返回值loss存入lossy列表
  8. test() #每轮训练完都测试一下正确率
  9. #torch.save(model, path)
  10. #model = torch.load("C:/Users/yas/Desktop/pytorch/MNIST/model/model1.pth")
  11. #可视化一下训练过程
  12. plt.plot(epochx, lossy)
  13. plt.grid()
  14. plt.show()

到这就可以开始进行训练了。

输出如图:

训练过程如图:

因为训练轮数太少,看不出有收敛的迹象

先写这么多

谢谢阅读!

下篇在这里

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/350232
推荐阅读
相关标签
  

闽ICP备14008679号