赞
踩
在传统的前馈神经网络中,输入层中的每个神经元都连接到下一层中的每个输出神经元——我们称之为全连接(FC)层。然而,在CNN中,我们直到网络的最后一层才使用FC层。因此,我们可以将CNN定义为一个神经网络,它在网络中的至少一个层中交换了一个专门的“卷积”层而不是“全连接”层。
然后将非线性激活函数(例如ReLU)应用于这些卷积的输出,并且卷积=>激活的过程继续进行(以及其他层类型的混合,以帮助减少输入体积的宽度和高度,并帮助减少过度拟合)直到我们最终到达网络的末端并应用一两个FC层,在那里我们可以获得最终的输出分类。
CNN中的每一层都应用一组不同的过滤器,通常是成百上千个过滤器,然后组合结果,将输出馈送到网络中的下一层。在训练期间,CNN会自动学习这些过滤器的值。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。