赞
踩
来看一个具体的神经网络示例,使用 Python 的 Keras 库来学习手写数字分类。
这里要解决的问题是,将手写数字的灰度图像(28 像素×28 像素)划分到 10 个类别中(0~9)。
我们将使用 MNIST 数据集,它是机器学习领域的一个经典数据集。
这个数据集包含 60 000 张训练图像和 10 000 张测试图像,由美国国家标准与技术研究院(National Institute of Standards and Technology,即 MNIST 中的 NIST)在 20 世纪 80 年代收集得到。
你可以将“解决”MNIST 问题看作深度学习的“Hello World”,正是用它来验证你的算法是否按预期运行。图 2-1 给出了 MNIST 数据集的一些样本。
在机器学习中,分类问题中的某个类别 叫作类(class)。数据点叫作样本 (sample)。某个样本对应的类叫作标签 (label)
MNIST 数据集预先加载在 Keras 库中,其中包括 4 个 Numpy 数组。
代码清单2-1 加载 Keras 中的 MNIST 数据集
from keras.datasets import mnist
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()
train_images 和 train_labels 组成了训练集(training set),模型将从这些数据中进行学习。然后在测试集 (test set,即 test_images 和 test_labels )上对模型进行测试。
图像被编码为 Numpy 数组,而标签是数字数组,取值范围为 0~9。图像和标签一一对应。
我们来看一下训练数据:
>>> train_images.shape
(60000, 28, 28)
>>> len(train_labels)
60000
>>> train_labels
array([5, 0, 4, ..., 5, 6, 8], dtype=uint8)
下面是测试数据:
>>> test_images.shape
(10000, 28, 28)
>>> len(test_labels)
10000
>>> test_labels
array([7, 2, 1, ..., 4, 5, 6], dtype=uint8)
为了具体说明,我们看一下 MNIST 例子中处理的数据。首先加载 MNIST 数据集。
from keras.datasets import mnist
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()
接下来,我们给出张量 train_images 的轴的个数,即 ndim 属性。
>>> print(train_images.ndim)
3
下面是它的形状。
>>> print(train_images.shape)
(60000, 28, 28)
下面是它的数据类型,即 dtype 属性。
>>> print(train_images.dtype)
uint8
所以,这里 train_images 是一个由 8 位整数组成的 3D 张量。
更确切地说,它是 60 000 个矩阵
组成的数组,每个矩阵由 28×28 个整数组成。每个这样的矩阵都是一张灰度图像(通道为1),元素取值范围为 0~255。
接下来的工作流程如下:
下面我们来构建网络。
代码清单2-2 网络架构
from keras import models
from keras import layers
network = models.Sequential()
# 28 * 28 的张量作为输入
network.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,))) ←------ 有512个输出单元的密集层
# 第二层没有输入形状(input_shape )的参数,相反,它可以自动推导出输入形状等于上一层的输出形状(512)。
network.add(layers.Dense(10, activation='softmax'))
神经网络的核心组件是层 (layer),它是一种数据处理模块,你可以将它看成数据过滤器。进去一些数据,出来的数据变得更加有用。
具体来说,层从输入数据中提取表示 ——我们期望这种表示有助于解决手头的问题。大多数深度学习都是将简单的层链接起来,从而实现渐进式的数据蒸馏 (data distillation)。深度学习模型就像是数据处理的筛子,包含一系列越来越精细的数据过滤器(即层)。
本例中的网络包含 2 个 Dense 层,它们是密集连接(也叫全连接 )的神经层。第二层(也是最后一层)是一个 10 路 softmax 层,它将返回一个由 10 个概率值(总和为 1)组成的数组。每个概率值表示当前数字图像属于 10 个数字类别中某一个的概率。
要想训练网络,我们还需要选择编译 (compile)步骤的三个参数。
代码清单2-3 编译步骤
network.compile(optimizer='rmsprop',
loss='categorical_crossentropy',
metrics=['accuracy'])
在开始训练之前,我们将对数据进行预处理,将其变换为网络要求的形状,并缩放到所有值都在 [0, 1] 区间。
比如,之前训练图像保存在一个 uint8 类型的数组中,其形状为 (60000, 28, 28) ,取值区间为 [0, 255] 。我们需要将其变换为一个 float32 数组,其形状为 (60000, 28 * 28) ,取值范围为 0~1。
代码清单2-4 准备图像数据
train_images = train_images.reshape((60000, 28 * 28))
train_images = train_images.astype('float32') / 255#加上astype之后,除以255可以保留更多位小数,精度更高。
test_images = test_images.reshape((10000, 28 * 28))
test_images = test_images.astype('float32') / 255
我们还需要对标签进行分类编码
码清单2-5 准备标签
from keras.utils import to_categorical
train_labels = to_categorical(train_labels)
test_labels = to_categorical(test_labels)
现在我们准备开始训练网络,在 Keras 中这一步是通过调用网络的 fit 方法来完成的——我们在训练数据上拟合 (fit)模型。
>>> network.fit(train_images, train_labels, epochs=5, batch_size=128)
Epoch 1/5
60000/60000 [=============================] - 9s - loss: 0.2524 - acc: 0.9273
Epoch 2/5
51328/60000 [=======================>.....] - ETA: 1s - loss: 0.1035 - acc: 0.9692
训练过程中显示了两个数字:一个是网络在训练数据上的损失(loss ),另一个是网络在训练数据上的精度(acc )。
我们很快就在训练数据上达到了 0.989(98.9%)的精度。现在我们来检查一下模型在测试集上的性能。
>>> test_loss, test_acc = network.evaluate(test_images, test_labels)
>>> print('test_acc:', test_acc)
test_acc: 0.9785
测试集精度为 97.8%,比训练集精度低不少。训练精度和测试精度之间的这种差距是过拟合 (overfit)造成的。过拟合是指机器学习模型在新数据上的性能往往比在训练数据上要差。
第一个例子到这里就结束了。
你刚刚看到了如何构建和训练一个神经网络,用不到 20 行的 Python 代码对手写数字进行分类。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。