赞
踩
pytorch是一个开源的深度学习的框架。其本质是一个基于Python的科学计算包,能提供最大的灵活性和效率。
MNIST数据集包含70,000张手写数字的图像及标签。其中 60,000张用于训练,10,000张用于测试。图像是灰度的,28x28像素,并且居中的,以减少预处理和加快运行。如下图所示:
CNN卷积神经网络,参见这个介绍。一个简单的卷积神经网络可包括卷积层,池化层,和全连接层。就是说,训练好之后,给这个网络输入一张手写数字的图片,经过这些个层之后,就可以输出这个数字。训练的过程就是不断根据训练集中的具体的图片及其对应的标签(即数字),来不断调整网络中的各参数以更新优化这个网络,使其能达到不错的准确率的过程。
OpenCV,功能强大的数字图像处理库,这个网上的介绍就太多了。
其中:右上角的窗口展示的是通过笔记本摄像头捕获的原图像;右下角窗口展示的是预处理之后,即转换为灰度图,滤波,反向二值化之后的图像;左上角展示的是即将输入进模型中的图像;下方窗口输出的predicted number即是模型输出的预测结果,是不断刷新的。
整体分为两个大的部分:1.训练模型;2.使用模型。
首先是训练模型:参照的这个教程
第一步:导入需要的包
- import torch
- from torch.utils.data import DataLoader
- from torchvision import datasets
- from torchvision import transforms
- import torch.nn.functional as F
- #import cv2
- #import os
- import matplotlib.pyplot as plt
其中torch用于实现深度学习,pyplot实现绘图以可视化训练结果
第二步:准备数据集(包括训练集和测试集)
- batch_size = 64 #设置batch大小
-
- transform = transforms.Compose([
- transforms.ToTensor(), #转换为张量
- transforms.Normalize((0.1307,), (0.3081,)) #设定标准化值
- ])
-
- #训练集
- train_dataset = datasets.MNIST(
- root='./data',
- train=True,
- transform=transform,
- download=True)
-
- #测试集
- test_dataset = datasets.MNIST(
- root='./data',
- train=False,
- transform=transform,
- download=True)
-
- #训练集加载器
- train_loader = DataLoader(dataset=train_dataset,
- batch_size=batch_size,
- shuffle=True)
-
- #测试集加载器
- test_loader = DataLoader(dataset=test_dataset,
- batch_size=batch_size,
- shuffle=False)
首先,设定batch大小(几句话搞懂什么是batch);定义transform操作。这个操作的目的是对原始图像进行预处理,主要是要将其转换为张量,才能送进神经网络中。
其次,定义训练集,测试集。这里dataset的目的是定义MNIST数据集,使用提供的detasets.MNIST()函数。里边需要指定路径,是否为训练集,transform操作(就是刚才定义好的),是否自动从网上下载等。
然后,定义训练集、测试集的加载器。类似一个集合(?),将训练集,测试集准备好放在里边。需要设定的参数有数据来源(即刚才的dataset),batch大小,是否需要打乱顺序等。
第三步:设计模型
- # 设计模型 CNN
- class CNN(torch.nn.Module):
- def __init__(self):
- super(CNN, self).__init__()
- self.conv1 = torch.nn.Conv2d(1, 10, kernel_size=(5,5)) #卷积层1
- self.conv2 = torch.nn.Conv2d(10, 20, kernel_size=(5,5)) #卷积层2
- self.pooling = torch.nn.MaxPool2d(2) #池化层
- self.fc1 = torch.nn.Linear(320, 256) #全连接层1
- self.fc2 = torch.nn.Linear(256, 128) #全连接层2
- self.fc3 = torch.nn.Linear(128, 10) #全连接层3
-
- def forward(self, x):
- batch_size = x.size(0)
- x = F.relu(self.pooling(self.conv1(x))) #卷积层1->池化层->激活函数Relu
- x = F.relu(self.pooling(self.conv2(x))) #卷积层2->池化层->激活函数Relu
- x = x.view(batch_size, -1) #改变张量的维度
- x = self.fc1(x) #全连接层1
- x = self.fc2(x) #全连接层2
- x = self.fc3(x) #全连接层3
- return x
-
-
- model = CNN() #实例化(?)模型为model
定义了2个卷积层和3个全连接层。
整体如上图所示,(其中池化层和激活函数的顺序交换了一下)
第四步:构造损失和优化函数
-
- # 构造损失函数和优化函数
- # 损失
- criterion = torch.nn.CrossEntropyLoss()
- # 优化
- optimizer = torch.optim.SGD(model.parameters(), lr=0.1, momentum=0.5)
损失函数使用交叉熵损失,适用于多分类问题
优化函数使用随机梯度下降算法SGD,学习率设置为0.1
第五步:定义训练函数
-
- def train(epoch):
- running_loss = 0.0 #每一轮训练重新记录损失值
- for batch_idx, data in enumerate(train_loader, 0): #提取训练集中每一个样本
- inputs, target = data
- optimizer.zero_grad() #将梯度归零
- #print(inputs.shape)
- outputs = model(inputs) #代入模型
- loss = criterion(outputs, target) #计算损失值
- loss.backward() #反向传播计算得到每个参数的梯度值
- optimizer.step() #梯度下降参数更新
-
- running_loss += loss.item() #损失值累加
- if batch_idx % 300 == 299: #每300个样本输出一下结果
- print('[%d,%5d] loss: %.3f' % (epoch + 1, batch_idx + 1, running_loss / 300))
- running_loss = 0.0 # (训练轮次, 该轮的样本次, 平均损失值)
- return running_loss
第六步:定义测试函数
-
- def test():
- correct = 0
- total = 0
- with torch.no_grad(): #执行计算,但不希望在反向传播中被记录
- for data in test_loader: #提取测试集中每一个样本
- images, labels = data
- outputs = model(images) #带入模型
- _, pred = torch.max(outputs.data, dim=1) #获得结果中的最大值
- total += labels.size(0) #测试数++
- correct += (pred == labels).sum().item() #将预测结果pred与标签labels对比,相同则正确数++
- """
- print("imageshape", images.shape)
- print("outputshape", outputs.shape)
- print("_ is", _.shape, _)
- print("pred is", pred.shape, pred)
- print("label is", labels)
- """
- print('%d %%' % (100 * correct / total)) #输出正确率
简单定义一下主函数
- if __name__ == '__main__':
- lossy = [] #定义存放纵轴数据(损失值)的列表
- epochx = [] #定义存放横轴数据(训练轮数)的列表
- #path = "C:/Users/yas/Desktop/pytorch/MNIST/model/model1.pth"
- for epoch in range(10): #训练10轮
- epochx.append(epoch) #将本轮轮次存入epochy列表
- lossy.append(train(epoch)) #执行训练,将返回值loss存入lossy列表
- test() #每轮训练完都测试一下正确率
-
- #torch.save(model, path)
- #model = torch.load("C:/Users/yas/Desktop/pytorch/MNIST/model/model1.pth")
-
- #可视化一下训练过程
- plt.plot(epochx, lossy)
- plt.grid()
- plt.show()
到这就可以开始进行训练了。
输出如图:
训练过程如图:
因为训练轮数太少,看不出有收敛的迹象
先写这么多
谢谢阅读!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。