赞
踩
在开始目标检测算法学习之前,先建立基于深度学习的目标检测算法大局观,了解目标检测算法的发展史,在了解背景的前提下,能更好地提升代入感,让理论知识理解起来不会枯燥无味!废话不多说,直接上干货。
下一篇:Yolo系列算法-理论部分-YOLOv1-CSDN博客
目标检测的目的就是找出图像中所有感兴趣的目标(物体Object)确定它们的位置和大小,是机器视觉领域的核心问题之一。
机器视觉领域遇到的难点:各类别的物体有着不同的外观、形状、姿态,实际生活中还有不同光照和遮挡等因素的干扰,让目标的检测的难度在无形中增长。
计算机视觉中关于图像识别的四大类任务:
目标检测解决的核心问题:
在深度卷积神经网络出来之前,DPM是目标检测领域最优秀的算法之一,基本思想是先提取DPM人工特征,再用LatentSVM分类;该算法的局限形在于:
图1 基于深度学习的目标检测算法发展路线图
最早的深度神经网络结构,2006年Hinton提出,直到2012年,随着数据量的增大,深度神经网络通过丰富的训练数据和充分的训练,自主学习特征,特征的质量远超人工提取的特征。
Alexnet的改进版,提出使用同一个卷积网络完成多个任务的方法,充分利用卷积神经网络提取功能,把分类过程中提取到的特征同时用于定位检测等各种任务,只需要修改网络的最后几层,不需要从头开始训练整个网络的参数,即CNN网络结构中特征共享的优势。
优点:
缺点:
卷积神经网络输入端图像的大小固定,第一个全连接层和卷积层之间的权重矩阵大小都是固定的;但是卷积层、全连接层本身对输入图像的大小没有限制。在做目标检测时,卷积网络面临的输入候选区域图像大小尺寸是不固定的。
Region CNN,目标检测的里程碑之作,指明了目标检测的大致路径,后续的深度学习领域的算法基本都是基于此算法基础上的改进。
图2 R-CNN算法流程
R-CNN检测算法流程:
取消了滑动窗口方案,降低了计算成本,同时没有产生大量待分类的窗口,目标不同宽高比的矩形框问题也得到了解决;
提取特征的卷积网络有5个卷积层和2个全连接层,输入固定大小的RGB图像,输出4096维特征向量;对候选区域的分类采用线性的支持向量机,对每一张待检测图像计算所有候选区域的特征向量,送入支持向量机中进行分类,同时送入全连接网络进行坐标位置回归。
设计巧妙,但也有缺点:
在R-CNN基础上提出了SPPNet,该方法虽然还是依赖候选框的生成,但将提取候选框特征向量的操作转移到卷积后的特征图上进行,将R-CNN中多次卷积变为一次卷积,大大降低了计算量。
R-CNN卷积网络只能接受固定大小的输入图像,那么为了适应图像的尺寸,截取的图像区域就会进行缩放,产生扭曲,目标检测精度就会下降;因为第一个全连接层必须要固定尺寸的输入,其他层都不需要固定尺寸,所以如果在最后一个卷积层与第一个全连接层之间做处理就可以解决问题。
故解决这个问题的SPP-Net引入了Spatial Pyramid Pooling层,对卷积特征图像进行空间金字塔采样,获取固定长度的输出,对特征层任意长宽比和尺度区域进行特征提取。
针对SPP-Net进一步改进,主要创新点:
图3 Fast R-CNN网络流程图
SPP-Net和Fast R-CNN都需要独立生成候选区域,不易用GPU进行加速。针对这个问题,Shaoqin Ren在Fast R-CNN基础上提出了Faster R-CNN。
图4 Faster R-CNN流程图
Faster R-CNN检测网络框架的计算量受3个因素的影响:
直接优化前两点的性价比不高,回到分类问题的本质上,分类是要增加物体的平移不变性,即不同位置都是用一个物体;目标检测的本质是减少物体的平移变化,目标检测需要得到物体所在的位置,通常训练都是使用backbone主干网络进行训练,再做finetuning,这就和分类任务出现了矛盾。
故Jifeng Dai团队提出了R-FCN网络,通过position-positive score maps(位置敏感度得分图)解决了这个矛盾。通过预测ROI中不同部位的类别投票表决产生该ROI的类别预测。在Faster R-CNN基础上取消了ROI-wise subnetwork,直接在ppsm上利用ROI Pooling进行信息采样融合分类和位置信息。
因为Faster R-CNN在做下采样和Roi Pooling时都对特征图大小做了取整的操作,对分类问题基本没有影响,但对检测任务有一定的影响,对语义分割这种像素级任务精度影响更为严重。
故Mask R-CNN团队对网络中涉及到特征图尺寸变化的环节都不使用取整操作,通过双线性插值填补非整数位置的像素,使下游特征图向上游映射时没有位置误差,不仅提升了目标检测效果,还满足语义分割任务的精度要求。
详细的介绍见我的下一篇博客。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。