赞
踩
摘自沈晓璐
有待补充自己的理解.
继2014的RCNN之后,推出了FastRCNN ,构思精巧,流程更为紧凑,大幅提升了目标检测的速度。
同样使用最大规模的网络,FastRCNN 和RCNN相比,训练时间从84小时减少为9.5小时,测试时间从47秒,减少为0.32秒,在PASCAL VOC 2007上的准确率相差无几,约在66%-67%之间.
简单来说,RCNN使用以下4步实现目标检测:
- 在图像中确定约1000-2000个候选框
- 对于每个候选框内图像块,使用深度网络提取特征
- 对候选框中提取出的特征,使用分类器判别是否属于一个特定类
- 对于属于某一特征的候选框,用回归器进一步调整其位置
解决了RCNN的三个问题:
原因:RCNN一张图像内候选框之间大量重叠,提取特征操作冗余
解决:本文将整张图像归一化后直接送入深度网络。在邻接时,才加入候选框信息,在末尾的少数几层处理每个候选框。
原因同上
解决:在训练时,本文先将一张图像送入网络,紧接着送入从这幅图象上提取出的候选区域。这些候选区域的前几层特征(不懂)不需要再重复计算。
RCNN中独立的分类器和回归器需要大量特征作为训练样本。
本文把类别判断和位置精调统一用深度网络实现,不再需要额外存储。
基本结构
图像归一化为224×224直接送入网络
前5阶段是基础的conv + relu + pooling形式,在第五阶段结尾,输入P个候选区域(图像序号×1+几何位置×4,序号用于训练)?
注意:文中给出了大中小三种网络,此处是最大的一种,三种网络基本结构相似,仅Conv+Relu层数有差别,或者增删了norm层
roi_pool 层将每个候选区域均匀分成M×N块,对每块进行max pooling,将特征图上大小不一的候选区域转变为大小统一的数据,送入下一层。
首先考虑普通max pooling层。设
x
i
x_i
xi为输入层的节点,
y
j
y_j
yj为输出层的节点。
其中判决函数
δ
\delta
δ(i,j)表示i结点是否被j节点选为最大值输出。不被选中有两种可能:
x
i
x_i
xi不在
y
j
y_j
yj范围内;
x
i
x_i
xi不是最大值
对于roi max pooling,一个输入节点可能和多个输出节点相连。设
x
i
x_i
xi为输入层的节点,
y
r
j
y_{r_j}
yrj为第r个候选区域的第j个输出节点。
判决函数表示i节点是否被候选区域r的第j个节点选为最大值输出。代价对于
x
i
x_i
xi的梯度等于所有相关的后一层梯度和。
网络除去末尾部分如下图,在ImageNet上训练1000类分类器,结果参数作为相应层的初始化参数。
其余参数随机初始化。
在调优训练时,每一个mini-batch中首先加入N张完整图片,而后加入从N张图片中选取的R个候选框。这R个候选框可以复用N张图片前5个阶段的网络特征。
实际选择N=2,R=128。
N张完整图片以50%概率水平翻转。
R个候选框的构成方式如下:
类别 | 比例 | 方式 |
---|---|---|
前景 | 25% | 与某个真值重叠在[0.5,1]的候选框 |
背景 | 75% | 与某个真值重叠在[0.1,0.5]的候选框 |
第五阶段的特征输入到两个并行的全连层中(称为multi-task)
cls_score层用于分类,输出K+1维数组p,表示属于K类和背景的概率。
bbox_prdict层用于调整候选区域位置,输出4*k维数组t,表示分别属于K类时,应该平移缩放的参数。
loss_cls层评估分类代价。由真实分类u对应的概率决定:
L
c
l
s
=
−
l
o
g
p
u
L_{cls} = -logp_u
Lcls=−logpu
loss_bbox评估检测框定位代价,比较真实分类对应的预测参数
t
u
t^u
tu和真实平移缩放参数为v的差别:
L
l
o
c
=
∑
i
=
1
4
g
(
t
i
u
−
v
i
)
L_{loc} = \sum_{i=1}^4g(t_i^u - v_i)
Lloc=i=1∑4g(tiu−vi)
g
g
g为Smooth L1误差,对outlier不敏感:
g
(
x
)
=
{
0.5
x
2
∣
x
∣
<
1
∣
x
∣
−
0.5
o
t
h
e
r
w
i
s
e
g(x) =
总代价为这两者加权和,如果分类为背景则不考虑定位代价:
L
=
{
L
c
l
s
+
λ
L
l
o
c
u
为
前
景
L
c
l
s
u
为
背
景
L =
源码中bbox_loss_weight 用于标记每一个bbox是否属于某一个类
分类和位置调整都是通过全连接层实现的,设前一级数据为x后一级为y,全连接层参数为W,尺寸为u*v。一次前向传播即为:
y
=
W
∗
x
y = W * x
y=W∗x
计算复杂度为
u
∗
v
u*v
u∗v
将W进行SVD分解,并用前t个特征值近似:
W
=
U
Σ
V
T
≈
U
(
:
,
1
:
t
)
⋅
Σ
(
1
:
t
,
1
:
t
)
⋅
V
(
:
,
1
:
t
)
T
W=UΣVT≈U(:,1:t)⋅Σ(1:t,1:t)⋅V(:,1:t)T
W=UΣVT≈U(:,1:t)⋅Σ(1:t,1:t)⋅V(:,1:t)T
原来的前向传播分解成两步:
y
=
W
x
=
U
⋅
(
Σ
⋅
V
T
)
⋅
x
=
U
⋅
z
y=Wx=U⋅(Σ⋅VT)⋅x=U⋅z
y=Wx=U⋅(Σ⋅VT)⋅x=U⋅z
计算复杂度变为
u
×
t
+
v
×
t
u × t + v × t
u×t+v×t
在实现时,相当于把一个全连接层拆分成两个,中间以一个低维数据相连。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。