当前位置:   article > 正文

darknet中YOLO分类损失梯度源码理解

darknet中YOLO分类损失梯度源码理解

之前一直对darknet中的分类损失梯度计算函数有些不太明白,不清楚为何在开始还有有一段对delta[index]是否为0的判断。后来思考了一下,觉得应该是这个原因。首先看一下这段代码:

void delta_yolo_class(float *output, float *delta, int index, int class, int classes, int stride, float *avg_cat)
{
    int n;
    if (delta[index]){
        delta[index + stride*class] = 1 - output[index + stride*class];
        if(avg_cat) *avg_cat += output[index + stride*class];
        return;
    }
    for(n = 0; n < classes; ++n){
        delta[index + stride*n] = ((n == class)?1 : 0) - output[index + stride*n];
        if(n == class && avg_cat) *avg_cat += output[index + stride*n];
    }
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13

我们知道,在YOLO_v3中类别损失函数使用的是sigmoid-loss,而不是使用softmax-loss。分类时使用sigmoid损失函数时,由于在使用真值框的中心点计算得到的最后一层feature map上的点位置存在量化误差,feature map上的点只能为整型,因此可能会存在两个靠的很近的真值框中心点计算出的位置在feature map上的坐标点位置是一样的,出现这种情况时,对应的class梯度已经在前一个真值框计算时计算过,而新的真值框计算class梯度时,没有必要将原来的class_delta全部覆盖掉,只需要更新对应class label对应的sigmoid梯度即可,因此这样的操作方式可能导致一个目标框的几个类别概率都比较大(即多label)。

当然,如果计算分类损失时使用softmax-loss就没必要这样做了。因为softmax计算出的类别概率是互斥的,不像使用sigmoid计算分类损失,因为每个类别都使用一个sigmoid计算其分类损失,他们的类别不是互斥的,因此可以使用代码中描述的操作方式,使用softmax-loss计算分类损失梯度时,第一部分代码可以直接忽略,让新的目标框类别梯度覆盖原来的即可。

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号