赞
踩
目前流行的基于回归方式的角度预测方法或多或少都有边界问题,主要原因是理想的预测结果超出所定义的范围,导致产生一个较大的损失值。CSL通过将角度的回归问题转换成了一个分类问题,限制预测结果的范围来消除这一问题。
简单的独热编码分类手段来处理存在几个问题:
回归问题转换成分类问题是一个连续到离散的问题,在这个转换的过程中会有精度的损失,比如在一度一类的情况下( w w w=1 ),无法预测出0.5度这种结果。
因此,需要先计算一下精度最大损失和平均损失(服从均匀分布),以确定这种损失对最后的结果影响大不大。
以一度一类的为例( w w w=1 ),精度最大和期望的损失分别是0.5和0.25。假如,有两个相同的长宽比1:9的同中心的矩形,角度相差0.5和0.25,则他们之间的IoU只下降了0.05和0.02。
针对独热编码的局限性,CSL编码通过设置窗口函数,来衡量预测值和GT之间的角度距离,即在一定范围内,越靠近真实值的预测值的损失值越小,并且引入周期性解决角度周期性问题,使得89和-90两个角度变成近邻。
CSL表达式:
窗口函数性质:
注意:当窗口函数窗口半径很小时,CSL等价于One-hot label。
以RetinaNet为Baseline,将角度作为180分类分支。
其中N表示anchor的数量, o b j n obj_{n} objn是一个二进制值( o b j n = 1 obj_{n}=1 objn=1表示前景, o b j n = 0 obj_{n}=0 objn=0表示背景,背景不回归)。 v ∗ j ‘ v^`_{*j} v∗j‘表示预测的偏移向量, v ∗ j v_{*j} v∗j 是 GT的目标向量。 θ n θ_n θn, θ n ‘ θ_n^‘ θn‘分别表示角度的标签和预测。 t n t_n tn表示对象的标签, P n P_n Pn是通过Sigmoid函数计算的各个类别的概率分布。 超参数 λ1、λ2、λ3 控制权衡,默认设置为 {1, 0.5, 1}。 分类损失 L c l s L_{cls} Lcls 和$ L_{CSL}$ 是Focal Loss或 sigmoid CE Loss,取决于检测器。 回归损失 L r e g L_{reg} Lreg 是Smooth L1 Loss。
注:角度有两个损失,回归以及分类损失都有。
角度类别太多,会导致RetinaNet的head部分过于厚
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。