当前位置:   article > 正文

基于PyTorch利用全连接神经网络识别MNIST手写数字_基于pytorch库使用bp神经网络完成mnist手写字体的识别

基于pytorch库使用bp神经网络完成mnist手写字体的识别
  1. from torchvision import datasets, transforms
  2. from torch import nn, optim
  3. from torch.utils.data import DataLoader
  4. import torch
  5. from torch.autograd import Variable
  6. # step1:定义超参数,并进行初始化
  7. batch_size = 64
  8. learn_rate = 0.001
  9. num_epoches = 10000
  10. # step2: 建立带有激励函数和批标准化函数的网络
  11. class batch_net(nn.Module):
  12. def __init__(self, in_dim, n_hiddle_1, n_hiddle_2, out_dim):
  13. super(batch_net, self).__init__()
  14. self.layer1 = nn.Sequential(nn.Linear(in_dim, n_hiddle_1), nn.BatchNorm1d(n_hiddle_1), nn.ReLU(True))
  15. self.layer2 = nn.Sequential(nn.Linear(n_hiddle_1, n_hiddle_2), nn.BatchNorm1d(n_hiddle_2), nn.ReLU(True))
  16. self.layer3 = nn.Sequential(nn.Linear(n_hiddle_2, out_dim))
  17. def forward(self, x):
  18. x = self.layer1(x)
  19. x = self.layer2(x)
  20. x = self.layer3(x)
  21. return x
  22. # step3:对数据进行标准化预处理
  23. """
  24. 这里主要使用两个函数,一个是transforms.ToTensor(),将图片转换成pyTorch中的Tensor对象,并且进行归一化(0-1之间)处理;
  25. 另一个是transforms.Normalize()进行标准化处理,他有两个参数,分别是均值和标准差,如transforms.Normalize([0.5], [0.5])
  26. 表示将数据减去0.5后,再除以0.5,这样将数据转化到-1到1之间,注意,因为MNIST数据集输入的图片是灰度图片,所以只有1个通道,如果
  27. 是输入的图片是财社的图片,则有三个通道
  28. 然后用transforms.Compose()函数将各种预处理的操作组合在一起
  29. """
  30. data_tf = transforms.Compose([
  31. transforms.ToTensor(),
  32. transforms.Normalize([0.5], [0.5])
  33. ])
  34. # step4:导入MNIST数据集
  35. """
  36. (1)root='./data'程序会自动在当前目录下建立一个文件夹data
  37. (2)train=True表示数据集作为训练接。train=False表示数据集作为测试集
  38. (3) transforms=data_tf吧PIL Image对象转化为Tensor对象
  39. (4)download=True表示数据从Internet上下载,否则数据不从internet上下载
  40. (5)shuffle=True表示表示每次迭代数据打乱,False反之
  41. """
  42. train_dataset = datasets.MNIST(root='./data', train=True, transform=data_tf, download=True)
  43. test_dataset = datasets.MNIST(root='./data', train=False, transform=data_tf)
  44. train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
  45. test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)
  46. # step5:导入神经网络模型, 定义损失函数和优化函数
  47. model = batch_net(28*28, 300, 100, 10) # 28*28表示图片大小、300,100表示隐藏层的数量,最后的10表示10个类别
  48. # 定义损失函数
  49. criterion = nn.CrossEntropyLoss()
  50. # 定义一个优化函数
  51. optimizer = optim.SGD(model.parameters(), lr=learn_rate)
  52. # step6:训练模型
  53. epoch = 0
  54. for data in train_loader:
  55. img, label = data
  56. img = img.view(img.size(0), -1) # x = x.view(x.size(0), -1) 这句话的出现就是为了将前面多维度的tensor展平成一维。
  57. # 下面这段程序以后会经常使用到,表示如果有GPU,则使用
  58. if torch.cuda.is_available():
  59. img = img.cuda()
  60. label = label.cuda()
  61. else:
  62. img = Variable(img)
  63. label = Variable(label)
  64. out = model(img)
  65. loss = criterion(out, label)
  66. print_loss = loss.data.item() # 官方文档解释.item()用法是:一个元素张量可以用x.item()得到元素值,我理解的就是一个是张量,一个是元素。
  67. optimizer.zero_grad() # optimizer.zero_grad()意思是把梯度置零,也就是把loss关于weight的导数变成0.
  68. # 对于下面两个操作我是把它理解成一种梯度下降法,
  69. loss.backward()
  70. optimizer.step()
  71. epoch+=1
  72. if epoch%10==0:
  73. print('epoch:{},loss:{:.4f}'.format(epoch, loss.data.item()))
  74. if __name__ =="__main()__":
  75. model.eval()
  76. eval_loss = 0
  77. eval_acc = 0
  78. for data in test_loader:
  79. img, label = data
  80. img = img.view(img.size(0), -1)
  81. if torch.cuda.is_available():
  82. img = img.cuda()
  83. label = label.cuda()
  84. out = model(img)
  85. loss = criterion(out, label)
  86. eval_loss+=loss.data.item()*label.size(0)
  87. """
  88. 在分类问题中,通常需要使用max()函数对softmax函数的输出值进行操作,求出预测值索引,然后与标签进行比对,计算准确率。
  89. 下面讲解一下torch.max()函数的输入及输出值都是什么,便于我们理解该函数。
  90. torch.max(input, dim) 函数
  91. 输入:
  92. input是softmax函数输出的一个tensor
  93. dim是max函数索引的维度0/1,0是每列的最大值,1是每行的最大值
  94. 输出:
  95. 函数会返回两个tensor,第一个tensor是每行的最大值;第二个tensor是每行最大值的索引。
  96. """
  97. _,pred = torch.max(out, 1)
  98. num_corred = (pred==label).sum()
  99. eval_acc+=num_corred.item()
  100. print('Test:{:.6f}', 'Acc:{:.6f}'.format(
  101. eval_loss/(len(test_dataset)),
  102. eval_acc/(len(test_dataset))
  103. ))

结果如下所示:

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/214890
推荐阅读
相关标签
  

闽ICP备14008679号