当前位置:   article > 正文

DiMP视频目标跟踪算法中hinge-like loss的理解_hinge like loss

hinge like loss

1. 论文基本信息




2. 为什么要用hinge-like loss

在使用hinge-like loss之前,作者对残差的定义为:

r ( s , c ) = s − y c (1) r(s, c)=s-y_{c} \tag {1} r(s,c)=syc(1)

其中, s s s表示真实的响应得分, y c y_{c} yc表示期望的响应得分,通常采用一个高斯分布进行表示,两者之差即为所求解的残差,这是最基础的残差求解思想。

然而在目标跟踪问题中,负样本的数目远大于正样本的数目,其置信得分通常设置为0,这就要求模型足够复杂,并且还会导致模型倾向于对负样本进行学习,而不是对正、负样本进行判别

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小舞很执着/article/detail/1010549
推荐阅读
  

闽ICP备14008679号