当前位置:   article > 正文

使用卷积神经网络实现MNIST分类【Python】_采用卷积神经网络分类mnist数据集

采用卷积神经网络分类mnist数据集

一起来看我的shit代码 

实验题目

用神经网络实现MNIST手写字符识别问题。

问题分析

MNIST数据集(Mixed National Institute of Standards and Technology database)是美国国家标准与技术研究院收集整理的大型手写数字数据集,包含了60,000个样本的训练集以及10,000个样本的测试集。本次实验将采用CNN来实现对MNIST的识别。

算法设计

数据准备

    将MNIST下载到本地/data目录下,其中60000个为训练集,10000个为测试集,随机打乱。

模型构建

定义一个卷积神经网络(CNN)模型。

模型经卷积-池化-卷积-池化-全连接1-全连接2-输出。

由于有10个数字,最终输出10个神经元。

使用ReLU作为隐藏层的激活函数。

模型训练

使用Adam优化器进行参数优化。(实验证明Adam比SGD收敛更快,速度也更快)

设置64个样本为1batch。

训练模型3次迭代,每次迭代遍历整个训练集。

在每次迭代后输出一次损失值。

模型评估

在测试集上评估训练好的模型。

计算模型在测试集上的分类准确率。

运算结果

跑了3个epoch

部分神经元参数如下

测试集

实验总结

在这个实验中,我们使用了一个简单的CNN模型对MNIST手写数字数据集进行了分类。我们首先定义了一个包含卷积层、池化层和全连接层的CNN模型,然后使用Adam优化器对其进行训练。通过三个epoch的训练,我们得到了一个在测试集上准确率达到98%以上的模型。在评估模型性能时,我们使用了GPU加速,并通过对模型参数的查看,了解了每一层的权重和偏置。本次实验有效地展示了CNN模型在图像分类任务中的优秀性能,以及GPU加速对训练效率的提升。

附录

CNN_Train.py

  1. import torch
  2. import torch.nn as nn
  3. import torch.optim as optim
  4. from torchvision.datasets import MNIST
  5. from torchvision import transforms
  6. import time
  7. # 检查GPU是否可用
  8. device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
  9. # 定义CNN模型
  10. class CNN(nn.Module):
  11. def __init__(self):
  12. super(CNN, self).__init__()
  13. self.conv1 = nn.Conv2d(1, 16, kernel_size=3, stride=1, padding=1)
  14. self.conv2 = nn.Conv2d(16, 32, kernel_size=3, stride=1, padding=1)
  15. self.pool = nn.MaxPool2d(kernel_size=2, stride=2)
  16. self.fc1 = nn.Linear(32 * 7 * 7, 128)
  17. self.fc2 = nn.Linear(128, 64)
  18. self.fc3 = nn.Linear(64, 10)
  19. def forward(self, x):
  20. # 卷积-池化-卷积-池化-全连接1-全连接2-输出
  21. x = self.pool(torch.relu(self.conv1(x)))
  22. x = self.pool(torch.relu(self.conv2(x)))
  23. x = x.view(-1, 32 * 7 * 7)
  24. x = torch.relu(self.fc1(x))
  25. x = torch.relu(self.fc2(x))
  26. x = self.fc3(x)
  27. return x
  28. # 设置数据预处理转换 将图像转换为张量并进行归一化
  29. transform = transforms.Compose([
  30. transforms.ToTensor(),
  31. transforms.Normalize((0.5,), (0.5,))
  32. ])
  33. # 加载MNIST训练集
  34. train_data = MNIST(root='./data', train=True, transform=transform, download=True)
  35. train_loader = torch.utils.data.DataLoader(train_data, batch_size=64,
  36. shuffle=True)
  37. # 实例化模型、损失函数和优化器
  38. model = CNN().to(device) # 丢到GPU
  39. criterion = nn.CrossEntropyLoss()
  40. optimizer = optim.Adam(model.parameters(), lr=0.001) # 实验证明Adam比SGD更优
  41. # 训练模型
  42. start_t = time.perf_counter() # 计时
  43. num_epochs = 3
  44. for epoch in range(num_epochs):
  45. running_loss = 0.0
  46. for images, labels in train_loader:
  47. images, labels = images.to(device), labels.to(device)
  48. optimizer.zero_grad()
  49. outputs = model(images)
  50. loss = criterion(outputs, labels)
  51. loss.backward()
  52. optimizer.step()
  53. running_loss += loss.item()
  54. print("Epoch {}/{}, Loss: {:.4f}".format(epoch + 1, num_epochs, running_loss / len(train_loader)))
  55. end_t = time.perf_counter()
  56. print("训练耗时:{:.8f}s".format(end_t - start_t))
  57. # 保存模型
  58. torch.save(model.state_dict(), "mnist_cnn_model.pth")
  59. # for param in list(model.parameters()):
  60. # print(param)

CNN_Test.py

  1. import torch
  2. import torch.nn as nn
  3. from torchvision.datasets import MNIST
  4. from torchvision import transforms
  5. import time
  6. # 检查GPU是否可用
  7. device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
  8. # 定义CNN模型
  9. class CNN(nn.Module):
  10. def __init__(self):
  11. super(CNN, self).__init__()
  12. self.conv1 = nn.Conv2d(1, 16, kernel_size=3, stride=1, padding=1)
  13. self.conv2 = nn.Conv2d(16, 32, kernel_size=3, stride=1, padding=1)
  14. self.pool = nn.MaxPool2d(kernel_size=2, stride=2)
  15. self.fc1 = nn.Linear(32 * 7 * 7, 128)
  16. self.fc2 = nn.Linear(128, 64)
  17. self.fc3 = nn.Linear(64, 10)
  18. def forward(self, x):
  19. # 卷积-池化-卷积-池化-全连接1-全连接2-输出
  20. x = self.pool(torch.relu(self.conv1(x)))
  21. x = self.pool(torch.relu(self.conv2(x)))
  22. x = x.view(-1, 32 * 7 * 7)
  23. x = torch.relu(self.fc1(x))
  24. x = torch.relu(self.fc2(x))
  25. x = self.fc3(x)
  26. return x
  27. # 设置数据预处理转换 将图像转换为张量并进行归一化
  28. transform = transforms.Compose([
  29. transforms.ToTensor(),
  30. transforms.Normalize((0.5,), (0.5,))
  31. ])
  32. # 加载MNIST训练集
  33. test_data = MNIST(root='./data', train=False, transform=transform)
  34. test_loader = torch.utils.data.DataLoader(test_data, batch_size=64,
  35. shuffle=True)
  36. # 加载模型
  37. model = CNN().to(device) # 丢到GPU
  38. model.load_state_dict(torch.load("mnist_cnn_model.pth"))
  39. # 在测试集上评估模型
  40. start_t = time.perf_counter() # 计时
  41. correct = 0
  42. total = 0
  43. with torch.no_grad(): # 测试阶段不用算梯度
  44. for images, labels in test_loader:
  45. images, labels = images.to(device), labels.to(device) # 输入数据转移到GPU
  46. outputs = model(images) # 前向传播
  47. _, predicted = torch.max(outputs, 1) # 获取预测结果 找最大值所在的索引
  48. total += labels.size(0) # 累加总样本数
  49. correct += (predicted == labels).sum().item() # 预测正确计数
  50. end_t = time.perf_counter()
  51. print("分类耗时:{:.8f}s".format(end_t - start_t))
  52. print("分类准确率: {:.2f}%".format(100 * correct / total))

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/936859
推荐阅读
相关标签
  

闽ICP备14008679号