赞
踩
论文:Focal and Efficient IOU Loss for Accurate Bounding Box Regression
贡献点:
目标检测框的回归问题,主要有两种 loss 函数:
l
n
l_n
ln-norm 函数
IoU-based 函数
CIoU 的详细对比:
EIoU Loss 定义如下:
在框回归问题中,高质量的 anchor 总是比低质量的 anchor 少很多,这也对训练过程有害无利。所以,需要研究如何让高质量的 anchor 起到更大的作用。
1、Focal L1 Loss
首先,损失函数的特性要求如下:
满足 1 和 2 条件的函数如图 5a 所示,当添加了一个超参数 β \beta β 时,如图 5b 所示,随着 β \beta β 的增大,虽然难样本的梯度模值会被很大程度的抑制,但高质量样本的梯度模值会降低,这并非期望的结果。
所以,又添加了一个参数
α
\alpha
α,来将梯度模值归一化到 [0, 1],所以,梯度模值可以被写为:
所以,得到能够对边界框进行回归监督的 Focal L1 Loss 如下:
如图 4b 所示,Focal L1 Loss 可以提高 inliers 的梯度值,并根据 β \beta β 抑制 outliers 的梯度值:
如图 4a 所示:
2、Focal-EIoU Loss
为了让 EIoU Loss 更关注高质量样本,可以使用 EIoU loss 来代替上面公式中的 x,但效果不太好。所以作者就通过分析之后,提出了下面的最终形式:
L F o c a l − E I o U = I o U γ L E I o U L_{Focal-EIoU}=IoU^{\gamma} L_{EIoU} LFocal−EIoU=IoUγLEIoU
这里以 IoU loss 的形式来分析一下 Focal 形式的曲线(EIoU 曲线不太好画),蓝线为 ( 1 − I o U ) (1-IoU) (1−IoU) 曲线,橘色线为 I o U 0.5 ( 1 − I o U ) IoU^{0.5}(1-IoU) IoU0.5(1−IoU),所以在 IoU 小的时候(0-0.8), I o U 0.5 ( 1 − I o U ) IoU^{0.5}(1-IoU) IoU0.5(1−IoU) 会被拉低,在 IoU 大的时候(0.8-1), I o U 0.5 ( 1 − I o U ) IoU^{0.5}(1-IoU) IoU0.5(1−IoU) 基本保持不变。
从这个曲线可以看出,Focal-EIoU loss 能够通过降低难样本的 loss 来让网络更关注简单样本。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。