赞
踩
一、卷积神经网络原理
卷积神经网络(CNN),是一种专门用来处理具有类似网格结构的数据的神经网络。卷积网络是指那些至少在网络的一层中使用卷积运算来替代一般的矩阵乘法运算的神经网络。
卷积神经网络的基本结构由以下几个部分组成:输入层(input layer),卷积层(convolution layer),池化层(pooling layer),激活函数层和全连接层(full-connection layer),具体结构如下图所示。
1、输入层
在处理图像的CNN中,输入层一般代表了一张图片的像素矩阵。可以用三维矩阵代表一张图片。三维矩阵的长和宽代表了图像的大小,而三维矩阵的深度代表了图像的色彩通道。比如黑白图片的深度为1,而在RGB色彩模式下,图像的深度为3。
2、卷积层
卷积神经网络的核心是卷积层,卷积层的核心部分是卷积操作。
对图像(不同的数据窗口数据)和滤波矩阵(一组固定的权重:因为每个神经元的多个权重固定,所以又可以看做一个恒定的滤波器filter)做内积(逐个元素相乘再求和)的操作就是所谓的卷积操作,也是卷积神经网络的名字来源。
在CNN中,滤波器filter对局部输入数据进行卷积计算。每计算完一个数据窗口内的局部数据后,数据窗口不断平移滑动,直到计算完所有数据。这个过程中,有这么几个参数:
a.深度depth:神经元个数,决定输出的depth厚度。同时代表滤波器个数。
b.步长stride:决定滑动多少步可以到边缘。
c.填充值zero-padding:在外围边缘补充若干圈0,方便从初始位置以步长为单位可以刚好滑到末尾位置,通俗地讲就是为了总长能被步长整除。
3、池化层
池化操作将输入矩阵某一位置相邻区域的总体统计特征作为该位置的输出,主要有平均池化(Average Pooling)、最大池化(Max Pooling)等。简单来说池化就是在该区域上指定一个值来代表整个区域。池化层的超参数:池化窗口和池化步长。池化操作也可以看做是一种卷积操作。
4、激活函数层
激活函数(非线性激活函数,如果激活函数使用线性函数的话,那么它的输出还是一个线性函数。)但使用非线性激活函数可以得到非线性的输出值。常见的激活函数有Sigmoid、tanh和Relu等。
5、全连接层
在经过多轮卷积层和池化层的处理之后,在CNN的最后一般会由1到2个全连接层来给出最后的分类结果。经过几轮卷积层和池化层的处理之后,可以认为图像中的信息已经被抽象成了信息含量更高的特征。我们可以将卷积层和池化层看成自动图像特征提取的过程。在提取完成之后,仍然需要使用全连接层来完成分类任务。
二、使用pytorch搭建卷积神经网络
- import torch
- from torch.autograd import Variable
- import torch.nn as nn
- import torch.nn.functional as F
- from torchvision import transforms
- from torch.utils.data import DataLoader
- from torchvision.datasets import MNIST
- from torch import optim
-
-
- class CNN_net(nn.Module):
- def __init__(self):
-
- super(CNN_net, self).__init__()
-
- self.conv = nn.Conv2d(1, 4, 9)
-
- self.pool = nn.AvgPool2d(2, 2)
-
- self.fc = nn.Linear(10*10*4, 10)
- self.softmax = nn.Softmax()
-
- def forward(self, x):
-
- out = self.conv(x)
- out = F.sigmoid(out)
- out = self.pool(out)
- print(out.size())
-
- out = out.view(-1, self.num_flat_features(out))
-
- out = self.fc(out)
- out = self.softmax(out)
- return out
- def num_flat_features(self, x):
-
- size = x.size()[1:]
- num_features = 1
- for s in size:
- num_features *= s
- return num_features
-
- net = CNN_net()
这样就实现了一个卷积神经网络的搭建
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。