赞
踩
大家好,欢迎来到新手入门课程,在这里我会带领大家从一个完全不懂深度学习的小白,通过学习本课程后,能够了解基本的深度学习概念,熟悉必备的数序基础知识,学会常见的编程工具Python,并掌握实用的深度学习框架PaddlePaddle。可能看到本课程的你并不了解什么是深度学习,那么就让我们从第一课开始把——什么是深度学习?
图灵测试是人工智能是否真正能够成功的一个标准,“计算机科学之父”、“人工智能之父”英国数学家图灵在1950年的论文《机器会思考吗》中提出了图灵测试的概念。即把一个人和一台计算机分别放在两个隔离的房间中,房间外的一个人同时询问人和计算机相同的问题,如果房间外的人无法分别哪个是人,哪个是计算机,就能够说明计算机具有人工智能。
1981年的诺贝尔将颁发给了David Hubel和Torsten Wiesel,以及Roger Sperry。他们发现了人的视觉系统处理信息是分级的。
从视网膜(Retina)出发,经过低级的V1区提取边缘特征,到V2区的基本形状或目标的局部,再到高层的整个目标(如判定为一张人脸),以及到更高层的PFC(前额叶皮层)进行分类判断等。也就是说高层的特征是低层特征的组合,从低层到高层的特征表达越来越抽象和概念化,也即越来越能表现语义或者意图。
边缘特征 —–> 基本形状和目标的局部特征——>整个目标 这个过程其实和我们的常识是相吻合的,因为复杂的图形,往往就是由一些基本结构组合而成的。同时我们还可以看出:大脑是一个深度架构,认知过程也是深度的。
人脑神经元示意图
计算机识别图像的过程
低层次特征 - - - - (组合) - - ->抽象的高层特征
深度学习,恰恰就是通过组合低层特征形成更加抽象的高层特征(或属性类别)。例如,在计算机视觉领域,深度学习算法从原始图像去学习得到一个低层次表达,例如边缘检测器、小波滤波器等,然后在这些低层次表达的基础上,通过线性或者非线性组合,来获得一个高层次的表达。此外,不仅图像存在这个规律,声音也是类似的。比如,研究人员从某个声音库中通过算法自动发现了20种基本的声音结构,其余的声音都可以由这20种基本结构来合成!
机器学习是实现人工智能的一种手段,也是目前被认为比较有效的实现人工智能的手段,目前在业界使用机器学习比较突出的领域很多,例如:计算机视觉、自然语言处理、推荐系统等等。大家生活中经常用到的比如高速上的ETC的车牌识别,今日头条的新闻推荐,天猫上的评价描述。 机器学习是人工智能的一个分支,而在很多时候,几乎成为人工智能的代名词。简单来说,机器学习就是通过算法,使得机器能从大量历史数据中学习规律,从而对新的样本做智能识别或对未来做预测。
人工智能是计算机科学的一个分支,研究计算机中智能行为的仿真。
每当一台机器根据一组预先定义的解决问题的规则来完成任务时,这种行为就被称为人工智能。
开发人员引入了大量计算机需要遵守的规则。计算机内部存在一个可能行为的具体清单,它会根据这个清单做出决定。如今,人工智能是一个概括性术语,涵盖了从高级算法到实际机器人的所有内容。
我们有四个不同层次的AI,让我们来解释前两个:
机器学习是指计算机使用大数据集而不是硬编码规则来学习的能力。
机器学习允许计算机自己学习。这种学习方式利用了现代计算机的处理能力,可以轻松地处理大型数据集。
基本上,机器学习是人工智能的一个子集;更为具体地说,它只是一种实现AI的技术,一种训练算法的模型,这种算法使得计算机能够学习如何做出决策。
从某种意义上来说,机器学习程序根据计算机所接触的数据来进行自我调整。
监督式学习需要使用有输入和预期输出标记的数据集。
当你使用监督式学习训练人工智能时,你需要提供一个输入并告诉它预期的输出结果。
如果人工智能产生的输出结果是错误的,它将重新调整自己的计算。这个过程将在数据集上不断迭代地完成,直到AI不再出错。
监督式学习的一个例子是天气预报人工智能。它学会利用历史数据来预测天气。训练数据包含输入(过去天气的压力、湿度、风速)和输出(过去天气的温度)。
我们还可以想象您正在提供一个带有标记数据的计算机程序。例如,如果指定的任务是使用一种图像分类算法对男孩和女孩的图像进行分类,那么男孩的图像需要带有“男孩”标签,女孩的图像需要带有“女孩”标签。这些数据被认为是一个“训练”数据集,直到程序能够以可接受的速率成功地对图像进行分类,以上的标签才会失去作用。
它之所以被称为监督式学习,是因为算法从训练数据集学习的过程就像是一位老师正在监督学习。在我们预先知道正确的分类答案的情况下,算法对训练数据不断进行迭代预测,然后预测结果由“老师”进行不断修正。当算法达到可接受的性能水平时,学习过程才会停止。
非监督式学习是利用既不分类也不标记的信息进行机器学习,并允许算法在没有指导的情况下对这些信息进行操作。
当你使用非监督式学习训练人工智能时,你可以让人工智能对数据进行逻辑分类。这里机器的任务是根据相似性、模式和差异性对未排序的信息进行分组,而不需要事先对数据进行处理。
非监督式学习的一个例子是亚马逊等电子商务网站的行为预测AI。
它将创建自己输入数据的分类,帮助亚马逊识别哪种用户最有可能购买不同的产品(交叉销售策略)。 另一个例子是,程序可以任意地使用以下两种算法中的一种来完成男孩女孩的图像分类任务。一种算法被称为“聚类”,它根据诸如头发长度、下巴大小、眼睛位置等特征将相似的对象分到同一个组。另一种算法被称为“相关”,它根据自己发现的相似性创建if/then规则。换句话说,它确定了图像之间的公共模式,并相应地对它们进行分类。
什么是深度学习,以及它是如何工作的。
深度学习是一种机器学习方法 , 它允许我们训练人工智能来预测输出,给定一组输入(指传入或传出计算机的信息)。监督学习和非监督学习都可以用来训练人工智能。
Andrew Ng:“与深度学习类似的是,火箭发动机是深度学习模型,燃料是我们可以提供给这些算法的海量数据。”
我们将通过建立一个公交票价估算在线服务来了解深度学习是如何工作的。为了训练它,我们将使用监督学习方法。
我们希望我们的巴士票价估价师使用以下信息/输入来预测价格:
神经网络是一组粗略模仿人类大脑,用于模式识别的算法。神经网络这个术语来源于这些系统架构设计背后的灵感,这些系统是用于模拟生物大脑自身神经网络的基本结构,以便计算机能够执行特定的任务。
和人类一样, “AI价格评估”也是由神经元(圆圈)组成的。此外,这些神经元还是相互连接的。
神经元分为三种不同类型的层次:
输入层接收输入数据。在我们的例子中,输入层有四个神经元:出发站、目的地站、出发日期和巴士公司。输入层会将输入数据传递给第一个隐藏层。
隐藏层对输入数据进行数学计算。创建神经网络的挑战之一是决定隐藏层的数量,以及每一层中的神经元的数量。
人工神经网络的输出层是神经元的最后一层,主要作用是为此程序产生给定的输出,在本例中输出结果是预测的价格值。
神经元之间的每个连接都有一个权重。这个权重表示输入值的重要性。模型所做的就是学习每个元素对价格的贡献有多少。这些“贡献”是模型中的权重。一个特征的权重越高,说明该特征比其他特征更为重要。
在预测公交票价时,出发日期是影响最终票价的最为重要的因素之一。因此,出发日期的神经元连接具有较大的“权重”。
每个神经元都有一个激活函数。它主要是一个根据输入传递输出的函数。 当一组输入数据通过神经网络中的所有层时,最终通过输出层返回输出数据。
为了提高“AI价格评估”的精度,我们需要将其预测结果与过去的结果进行比较,为此,我们需要两个要素:
训练AI的过程中,重要的是给它的输入数据集(一个数据集是一个单独地或组合地或作为一个整体被访问的数据集合),此外还需要对其输出结果与数据集中的输出结果进行对比。因为AI一直是“新的”,它的输出结果有可能是错误的。
对于我们的公交票价模型,我们必须找到过去票价的历史数据。由于有大量“公交车站”和“出发日期”的可能组合,因而我们需要一个非常大的票价清单。
一旦我们遍历了整个数据集,就有可能创建一个函数来衡量AI输出与实际输出(历史数据)之间的差异。这个函数叫做成本函数。即成本函数是一个衡量模型准确率的指标,衡量依据为此模型估计X与Y间关系的能力。
模型训练的目标是使成本函数等于零,即当AI的输出结果与数据集的输出结果一致时(成本函数等于0)。
通过使用一种叫做梯度下降的方法。梯度衡量得是,如果你稍微改变一下输入值,函数的输出值会发生多大的变化。
梯度下降法是一种求函数最小值的方法。在这种情况下,目标是取得成本函数的最小值。 它通过每次数据集迭代之后优化模型的权重来训练模型。通过计算某一权重集下代价函数的梯度,可以看出最小值的梯度方向。
为了降低成本函数值,多次遍历数据集非常重要。这就是为什么需要大量计算能力的原因。 一旦我们通过训练改进了AI,我们就可以利用它根据上述四个要素来预测未来的价格。
我们来看一个具体的神经网络示例,使用 PaddlePaddle来学习手写数字分类。如果你没用过PaddlePaddle或类似的库,可能无法立刻搞懂这个例子中的全部内容。甚至你可能还没有安装PaddlePaddle, 没关系,第四课会教大家如何安装PaddlePaddle,学会基本的命令和操作。因此,如果其中某些步骤看起来不太明白也不要担心。下面我们要开始了。
我们这里要解决的问题是,将手写数字的灰度图像(28 像素×28 像素)划分到 10 个类别 中(0~9)。我们将使用 MNIST 数据集,它是机器学习领域的一个经典数据集,其历史几乎和这 个领域一样长,而且已被人们深入研究。这个数据集包含 60 000 张训练图像和 10 000 张测试图 像,由美国国家标准与技术研究院(National Institute of Standards and Technology,即 MNIST 中 的 NIST)在 20 世纪 80 年代收集得到。你可以将“解决”MNIST 问题看作深度学习的“Hello World”,正是用它来验证你的算法是否按预期运行。当你成为机器学习从业者后,会发现 MNIST 一次又一次地出现在科学论文、博客文章等中。
1.MINIST数据集包含60000个训练集和10000测试数据集。分为图片和标签,图片是28*28的像素矩阵,标签为0~9共10个数字。
2.使用飞桨内置数据集 paddle.vision,datasets.MNIST
定义MNIST数据集的 train_dataset 和 test_dataset。
3.使用 Normalize
接口对图片进行归一化。
In [ ]
- import paddle
- from paddle.vision.transforms import Normalize
-
- transform = Normalize(mean=[127.5],
- std=[127.5],
- data_format='CHW')
- # 使用transform对数据集做归一化
- print('download training data and load training data')
- train_dataset = paddle.vision.datasets.MNIST(mode='train', transform=transform)
- test_dataset = paddle.vision.datasets.MNIST(mode='test', transform=transform)
- print('load finished')
download training data and load training data load finished
取一条数据,观察一下mnist数据集
In [ ]
- import numpy as np
- import matplotlib.pyplot as plt
- train_data0, train_label_0 = train_dataset[0][0],train_dataset[0][1]
- train_data0 = train_data0.reshape([28,28])
- plt.figure(figsize=(2,2))
- plt.imshow(train_data0, cmap=plt.cm.binary)
- print('train_data0 label is: ' + str(train_label_0))
train_data0 label is: [5]
<Figure size 144x144 with 1 Axes>
以下的代码判断就是定义一个简单的多层感知器,一共有三层,两个大小为100的隐层和一个大小为10的输出层,因为MNIST数据集是手写0到9的灰度图像,类别有10个,所以最后的输出大小是10。最后输出层的激活函数是Softmax,所以最后的输出层相当于一个分类器。加上一个输入层的话,多层感知器的结构是:输入层-->>隐层-->>隐层-->>输出层。
In [ ]
- # 定义多层感知机
- class MultilayerPerceptron(paddle.nn.Layer):
- def __init__(self, in_features):
- super(MultilayerPerceptron, self).__init__()
- # 形状变换,将数据形状从 [] 变为 []
- self.flatten = paddle.nn.Flatten()
- # 第一个全连接层
- self.linear1 = paddle.nn.Linear(in_features=in_features, out_features=100)
- # 使用ReLU激活函数
- self.act1 = paddle.nn.ReLU()
- # 第二个全连接层
- self.linear2 = paddle.nn.Linear(in_features=100, out_features=100)
- # 使用ReLU激活函数
- self.act2 = paddle.nn.ReLU()
- # 第三个全连接层
- self.linear3 = paddle.nn.Linear(in_features=100, out_features=10)
-
- def forward(self, x):
- # x = x.reshape((-1, 1, 28, 28))
- x = self.flatten(x)
- x = self.linear1(x)
- x = self.act1(x)
- x = self.linear2(x)
- x = self.act2(x)
- x = self.linear3(x)
- return x
In [ ]
- # 使用 paddle.Model 封装 MultilayerPerceptron
- model = paddle.Model(MultilayerPerceptron(in_features=784))
- # 使用 summary 打印模型结构
- model.summary((-1, 1, 28, 28))
--------------------------------------------------------------------------- Layer (type) Input Shape Output Shape Param # =========================================================================== Flatten-8 [[1, 1, 28, 28]] [1, 784] 0 Linear-16 [[1, 784]] [1, 100] 78,500 ReLU-11 [[1, 100]] [1, 100] 0 Linear-17 [[1, 100]] [1, 100] 10,100 ReLU-12 [[1, 100]] [1, 100] 0 Linear-18 [[1, 100]] [1, 10] 1,010 =========================================================================== Total params: 89,610 Trainable params: 89,610 Non-trainable params: 0 --------------------------------------------------------------------------- Input size (MB): 0.00 Forward/backward pass size (MB): 0.01 Params size (MB): 0.34 Estimated Total Size (MB): 0.35 ---------------------------------------------------------------------------
{'total_params': 89610, 'trainable_params': 89610}
接着是配置模型,在这一步,我们需要指定模型训练时所使用的优化算法与损失函数,此外,这里我们也可以定义计算精度相关的API。
In [ ]
- # 配置模型
- model.prepare(paddle.optimizer.Adam(parameters=model.parameters()), # 使用Adam算法进行优化
- paddle.nn.CrossEntropyLoss(), # 使用CrossEntropyLoss 计算损失
- paddle.metric.Accuracy()) # 使用Accuracy 计算精度
使用飞桨高层API,可以很快的完成模型训练的部分,只需要在 prepare
配置好模型训练的相关算法后,调用 fit
接口,指定训练的数据集,训练的轮数以及数据的batch_size,就可以完成模型的训练。
In [ ]
- # 开始模型训练
- model.fit(train_dataset, # 设置训练数据集
- epochs=5, # 设置训练轮数
- batch_size=64, # 设置 batch_size
- verbose=1) # 设置日志打印格式
The loss value printed in the log is the current step, and the metric is the average value of previous step. Epoch 1/5 step 938/938 [==============================] - loss: 0.2002 - acc: 0.9759 - 8ms/step Epoch 2/5 step 938/938 [==============================] - loss: 0.0052 - acc: 0.9786 - 8ms/step Epoch 3/5 step 938/938 [==============================] - loss: 0.0147 - acc: 0.9798 - 8ms/step Epoch 4/5 step 938/938 [==============================] - loss: 0.0449 - acc: 0.9807 - 8ms/step Epoch 5/5 step 938/938 [==============================] - loss: 0.1223 - acc: 0.9840 - 9ms/step
使用飞桨高层API完成模型评估也非常的简单,只需要调用 evaluate
接口并传入验证集即可。这里我们使用测试集作为验证集。
In [ ]
model.evaluate(test_dataset, verbose=1)
Eval begin... The loss value printed in the log is the current batch, and the metric is the average value of previous step. step 10000/10000 [==============================] - loss: 0.0000e+00 - acc: 0.9743 - 2ms/step Eval samples: 10000
{'loss': [0.0], 'acc': 0.9743}
使用飞桨高层API完成模型预测也非常的简单,只需要调用 predict
接口并传入测试集即可。
In [ ]
results = model.predict(test_dataset)
Predict begin... step 10000/10000 [==============================] - 2ms/step Predict samples: 10000
In [ ]
- # 获取概率最大的label
- lab = np.argsort(results) #argsort函数返回的是result数组值从小到大的索引值
- # print(lab)
- print("该图片的预测结果的label为: %d" % lab[0][0][-1][0]) #-1代表读取数组中倒数第一列
该图片的预测结果的label为: 6
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。