当前位置:   article > 正文

【深度学习】基于华为MindSpore的手写体图像识别实验_mindspore mnist

mindspore mnist

1 实验介绍

1.1 简介

Mnist手写体图像识别实验是深度学习入门经典实验。Mnist数据集包含60,000个用于训练的示例和10,000个用于测试的示例。这些数字已经过尺寸标准化并位于图像中心,图像是固定大小(28x28像素),其值为0到255。为简单起见,每个图像都被平展并转换为784(28*28)个特征的一维numpy数组。

1.2 实验目的

  1. 学会如何搭建全连接神经网络。
  2. 掌握搭建网络过程中的关键点。
  3. 掌握分类任务的整体流程。

2.2 实验环境要求 

推荐在华为云ModelArts实验平台完成实验,也可在本地搭建python3.7.5和MindSpore1.0.0环境完成实验。

2.3 实验总体设计

d6b6f298ac344c8f9d3d3396292e6dd5.png

 

创建实验环境:在本地搭建MindSpore环境。

导入实验所需模块:该步骤通常都是程序编辑的第一步,将实验代码所需要用到的模块包用import命令进行导入。

导入数据集并预处理:神经网络的训练离不开数据,这里对数据进行导入。同时,因为全连接网络只能接收固定维度的输入数据,所以,要对数据集进行预处理,以符合网络的输入维度要求。同时,设定好每一次训练的Batch的大小,以Batch Size为单位进行输入。

模型搭建:利用mindspore.nn的cell模块搭建全连接网络,包含输入层,隐藏层,输出层。同时,配置好网络需要的优化器,损失函数和评价指标。传入数据,并开始训练模型。

模型评估:利用测试集进行模型的评估。

2.4 实验过程

2.4.1 搭建实验环境

Windows下MindSpore实验环境搭建并配置Pycharm请参考【机器学习】Windows下MindSpore实验环境搭建并配置Pycharm_在pycharm上安装mindspore_弓长纟隹为的博客-CSDN博客

官网下载MNIST数据集 MNIST handwritten digit database, Yann LeCun, Corinna Cortes and Chris Burges

在MNIST文件夹下建立train和test两个文件夹,train中存放train-labels-idx1-ubyte和train-images-idx3-ubyte文件,test中存放t10k-labels-idx1-ubyte和t10k-images-idx3-ubyte文件。

2.4.2  模型训练、测试及评估

  1. #导入相关依赖库
  2. import os
  3. import numpy as np
  4. from matplotlib import pyplot as plt
  5. import mindspore as ms
  6. #context模块用于设置实验环境和实验设备
  7. import mindspore.context as context
  8. #dataset模块用于处理数据形成数据集
  9. import mindspore.dataset as ds
  10. #c_transforms模块用于转换数据类型
  11. import mindspore.dataset.transforms as C
  12. #vision.c_transforms模块用于转换图像,这是一个基于opencv的高级API
  13. import mindspore.dataset.vision as CV
  14. #导入Accuracy作为评价指标
  15. from mindspore.nn.metrics import Accuracy
  16. #nn中有各种神经网络层如:Dense,ReLu
  17. from mindspore import nn
  18. #Model用于创建模型对象,完成网络搭建和编译,并用于训练和评估
  19. from mindspore.train import Model
  20. #LossMonitor可以在训练过程中返回LOSS值作为监控指标
  21. from mindspore.train.callback import LossMonitor
  22. #设定运行模式为动态图模式,并且运行设备为昇腾芯片
  23. context.set_context(mode=context.GRAPH_MODE, device_target='CPU')
  24. #MindSpore内置方法读取MNIST数据集
  25. ds_train = ds.MnistDataset(os.path.join(r'D:\Dataset\MNIST', "train"))
  26. ds_test = ds.MnistDataset(os.path.join(r'D:\Dataset\MNIST', "test"))
  27. print('训练数据集数量:',ds_train.get_dataset_size())
  28. print('测试数据集数量:',ds_test.get_dataset_size())
  29. #该数据集可以通过create_dict_iterator()转换为迭代器形式,然后通过get_next()一个个输出样本
  30. image=ds_train.create_dict_iterator().get_next()
  31. #print(type(image))
  32. print('图像长/宽/通道数:',image['image'].shape)
  33. #一共10类,用0-9的数字表达类别。
  34. print('一张图像的标签样式:',image['label'])
  35. DATA_DIR_TRAIN = "D:/Dataset/MNIST/train" # 训练集信息
  36. DATA_DIR_TEST = "D:/Dataset/MNIST/test" # 测试集信息
  37. def create_dataset(training=True, batch_size=128, resize=(28, 28), rescale=1 / 255, shift=-0.5, buffer_size=64):
  38. ds = ms.dataset.MnistDataset(DATA_DIR_TRAIN if training else DATA_DIR_TEST)
  39. # 定义改变形状、归一化和更改图片维度的操作。
  40. # 改为(28,28)的形状
  41. resize_op = CV.Resize(resize)
  42. # rescale方法可以对数据集进行归一化和标准化操作,这里就是将像素值归一到0和1之间,shift参数可以让值域偏移至-0.5和0.5之间
  43. rescale_op = CV.Rescale(rescale, shift)
  44. # 由高度、宽度、深度改为深度、高度、宽度
  45. hwc2chw_op = CV.HWC2CHW()
  46. # 利用map操作对原数据集进行调整
  47. ds = ds.map(input_columns="image", operations=[resize_op, rescale_op, hwc2chw_op])
  48. ds = ds.map(input_columns="label", operations=C.TypeCast(ms.int32))
  49. # 设定洗牌缓冲区的大小,从一定程度上控制打乱操作的混乱程度
  50. ds = ds.shuffle(buffer_size=buffer_size)
  51. # 设定数据集的batch_size大小,并丢弃剩余的样本
  52. ds = ds.batch(batch_size, drop_remainder=True)
  53. return ds
  54. #显示前10张图片以及对应标签,检查图片是否是正确的数据集
  55. dataset_show = create_dataset(training=False)
  56. data = dataset_show.create_dict_iterator().get_next()
  57. images = data['image'].asnumpy()
  58. labels = data['label'].asnumpy()
  59. for i in range(1,11):
  60. plt.subplot(2, 5, i)
  61. #利用squeeze方法去掉多余的一个维度
  62. plt.imshow(np.squeeze(images[i]))
  63. plt.title('Number: %s' % labels[i])
  64. plt.xticks([])
  65. plt.show()
  66. # 利用定义类的方式生成网络,Mindspore中定义网络需要继承nn.cell。在init方法中定义该网络需要的神经网络层
  67. # 在construct方法中梳理神经网络层与层之间的关系。
  68. class ForwardNN(nn.Cell):
  69. def __init__(self):
  70. super(ForwardNN, self).__init__()
  71. self.flatten = nn.Flatten()
  72. self.relu = nn.ReLU()
  73. self.fc1 = nn.Dense(784, 512, activation='relu')
  74. self.fc2 = nn.Dense(512, 256, activation='relu')
  75. self.fc3 = nn.Dense(256, 128, activation='relu')
  76. self.fc4 = nn.Dense(128, 64, activation='relu')
  77. self.fc5 = nn.Dense(64, 32, activation='relu')
  78. self.fc6 = nn.Dense(32, 10, activation='softmax')
  79. def construct(self, input_x):
  80. output = self.flatten(input_x)
  81. output = self.fc1(output)
  82. output = self.fc2(output)
  83. output = self.fc3(output)
  84. output = self.fc4(output)
  85. output = self.fc5(output)
  86. output = self.fc6(output)
  87. return output
  88. lr = 0.001
  89. num_epoch = 10
  90. momentum = 0.9
  91. net = ForwardNN()
  92. #定义loss函数,改函数不需要求导,可以给离散的标签值,且loss值为均值
  93. loss = nn.loss.SoftmaxCrossEntropyWithLogits( sparse=True, reduction='mean')
  94. #定义准确率为评价指标,用于评价模型
  95. metrics={"Accuracy": Accuracy()}
  96. #定义优化器为Adam优化器,并设定学习率
  97. opt = nn.Adam(net.trainable_params(), lr)
  98. #生成验证集,验证机不需要训练,所以不需要repeat
  99. ds_eval = create_dataset(False, batch_size=32)
  100. #模型编译过程,将定义好的网络、loss函数、评价指标、优化器编译
  101. model = Model(net, loss, opt, metrics)
  102. #生成训练集
  103. ds_train = create_dataset(True, batch_size=32)
  104. print("============== Starting Training ==============")
  105. #训练模型,用loss作为监控指标,并利用昇腾芯片的数据下沉特性进行训练
  106. model.train(num_epoch, ds_train,callbacks=[LossMonitor()],dataset_sink_mode=True)
  107. #使用测试集评估模型,打印总体准确率
  108. metrics_result=model.eval(ds_eval)
  109. print(metrics_result)

20dd127b552846908ef8ff2628cafaed.png

d07ee4e815a5405b97b8b709bf63a160.png

备注:

若报错 AttributeError: ‘DictIterator’ object has no attribute ‘get_next’ ,这是说MindSpore数据类中缺少 “get_next”这个方法,但是在MNIST图像识别的官方代码中却使用了这个方法,这就说明MindSpore官方把这个变成私密方法。

只需要在源码iterators.py中找到DictIterator这个类,将私有方法变成公有方法就行了(即去掉最前面的下划线)。

参考mindspore 报错 AttributeError: ‘DictIterator‘ object has no attribute ‘get_next‘_create_dict_iterator_TNiuB的博客-CSDN博客

MindSpore:前馈神经网络时报错‘DictIterator‘ has no attribute ‘get_next‘_skytier的博客-CSDN博客

ef3de1aeb10343b8a2ca38887ff8a3c0.png

更多问题请参考Window10 上MindSpore(CPU)用LeNet网络训练MNIST - 知乎 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/凡人多烦事01/article/detail/718868
推荐阅读
相关标签
  

闽ICP备14008679号