赞
踩
训练神经网络主要围绕下面四部分:
层、损失函数、优化器之间的关系:
层:神经网络中的核心组件是层,它是一种数据处理模块,可以将其看作是数据过滤器,进去一些数据,出来的数据更具代表性。层的创建原理类似于神经元,神经元模型结构为:
激活函数是人工神经网络的一个极其重要的特征。它决定一个神经元是否应该被激活,激活代表神经元接收的信息与给定的信息有关。激活函数对输入信息进行非线性变换。 然后将变换后的输出信息作为输入信息传给下一层神经元。
当我们不用激活函数时,权重和偏差只会进行线性变换。线性方程很简单,但解决复杂问题的能力有限。没有激活函数的神经网络实质上只是一个线性回归模型。激活函数对输入进行非线性变换,使其能够学习和执行更复杂的任务。我们希望我们的神经网络能够处理复杂任务,如语言翻译和图像分类等。线性变换永远无法执行这样的任务。
激活函数使反向传播成为可能,因为激活函数的误差梯度可以用来调整权重和偏差。如果没有可微的非线性函数,这就不可能实现。
不同的张量格式与不同的数据处理类型需要用到不同的层
损失函数(目标函数):在训练过程中需要将其最小化。它能衡量当前任务是否已经成功完成。
选择正确的目标函数对解决问题是十分重要的。网络的目的是使得损失尽可能最小化,因此如果目标函数不能与成功完成当前任务不完全相关,那么网络最终得到的结果可能会不符合预期。
对于分类、回归、序列预测等常见问题,可以遵循简单的指导原则来选取正确的损失函数
优化器:决定如何基于损失函数对网络进行更新
为了得到泛化效果好的模型,需要防止神经网络过拟合
权重正则化:强制让模型权重只能取较小的值,从而限制模型的复杂度,这使得权重的分布更加规则。实现方法就是向网络损失函数中添加与较大权重值相关的成本。这个成本有两种形式。
dropout正则化:dropout是神经网络最有效也最常用的正则化方法之一,对某一层使用dropout,就是在训练过程中随机将该层的一些输出特征舍弃。
全连接网络的缺陷:
首先将图像展开为向量会丢失空间信息;
其次参数过多效率低下,训练困难;
同时大量的参数也很快会导致网络过拟合
这个重要特性使得卷积神经网络具有两个特殊性质
卷积神经网络结构
卷积层:
CNN 网络中卷积层的两个常用参数padding和strides
padding是指是否对图像的外侧进行补零操作,其取值一般为VALID和SAME两种。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。