赞
踩
IOU在0~1之间,两个框完全重合为1,所以 为0时没有重合,即值越低 IOU效果越差
IOU loss = 1 - IOU,loss 越小,效果越好,这是 IOU loss 和 IOU 的区别
GIoU是在2019年发表在CVPR的一篇论文,主要解决了当时普遍使用IOU loss 存在的一些问题,
作者发现使用 IoU 会有两个缺点,导致其不太适合做损失函数:
1、预测框和真实框之间没有重合时,IoU 值为 0, 导致优化损失函数时梯度也为 0,意味着无法优化。
而 GIOU loss,通过最小闭合凸面 C的原理,
2、即使预测框和真实框之间相重合且具有相同的 IoU 值时,检测的效果也具有较大差异。
比如对于同样是IOU是一个值的 三种 IOU情况,GT框和预测框 有一条边重合,GT框和预测框 没有边重合,但是 矩形框的长边和短边平行,3,GT框和预测框没有边平行,两个框呈一定旋转角度,这三种情况,对于后面的优化来说,当然是有边重合的最好,两个框不平行是最差的,这种情况下,对于原先的IOU loss,是没区别的,而 GIOU loss,通过最小闭合凸面 C的原理,让类似于这三种情况下的IOU 也 是有loss区分的,其中 两个框越不重合,loss越大,通过这样一种方式,最终GIOU loss,最终对模型性能的提升,在作者论文里 PASCAL VOC 2007.数据集上相对于 IOU losss 有将近6.85%个点的提升。
IoU的局限性
预测框和真实框之间没有重合时,IoU 值为 0, 导致优化损失函数时梯度也为 0,意味着无法优化。
当IOU=0时:https://www.zhihu.com/equation?tex=GIOU%3D-1%2B%5Cfrac%7BA%5Ccup+B%7D%7BC%7D%5C%5C+
显然, 值不变,最大化GIOU就是要最小化 ,最小化C就会促成两个框不断靠近,而不是像最小化IOU那样loss为0。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。