当前位置:   article > 正文

深度学习论文: Decoupling Representation and classifier for long-tailed recognition及其PyTorch实现_learning prototype classifers for long-tailed reco

learning prototype classifers for long-tailed recognition

Decoupling Representation and classifier for long-tailed recognition
PDF:https://arxiv.org/pdf/1910.09217.pdf
PyTorch: https://github.com/shanglianlm0525/PyTorch-Networks
Official :https://github.com/facebookresearch/classifier-balancing

1 概述

在学习分类任务的过程中,将通常默认为联合起来学习的类别特征表征与分类器解耦(decoupling),寻求合适的表征来最小化长尾样本分类的负面影响。

作者将分类网络分解为representation learning 和 classification 两部分,系统的研究了这两部分对于Long-tailed问题的影响。通过实验得到的两点发现是:
数据不均衡问题不会影响高质量Representations的学习。即,random sampling策略往往会学到泛化性更好的representations;
使用最简单的random sampling 来学习representations,然后只调整classifier的学习也可以作为一个strong baseline。

2 表征学习(representation learning )

(Sampling strategies)
在这里插入图片描述

2-1 样本均衡采样(Instance-balanced sampling)

该方法最为常见,即每一个训练样本都有均等的机会概率被选中,即上述公式中 q=1 的情况。

2-2 类别均衡采样(Class-balanced sampling)

每个类别都有同等的概率被选中,即公平地选取每个类别,然后再从类别中进行样本选取,即上述公式中 q=0 的情况。

2-3 平方根采样(Square-root sampling)

本质上是之前两种采样方式的变种,通常是将概率公式中的 q 定值为 0.5。

2-4 渐进式均衡采样(Progressively-balanced sampling)

根据训练中的迭代次数 t(epoch)同时引入样本均衡(IB)与类别均衡(CB)采样并进行适当权重调整的一种新型采样模式,公式为
在这里插入图片描述

3 分类器学习(classifier learning)

3-1 重训练分类器(Classifier Re-training, cRT)

固定住representations部分,随机初始化classifier的weight和bias参数,并使用class-balanced sampling在训练少量epoch

3-2 最近类别平均分类器(Nereast Class Mean classifier, NCM)

首先将training set里的每个类别计算feature representaitions的均值,然后在test set上执行最近邻查找。或者将mean features进行L2-Normalization之后,使用余弦距离或者欧氏距离计算相似度。作者指出,余弦相似度可以通过其本身的normalization特性来缓解weight imbalance的问题。

3-3 τ-归一化分类器(τ-normalized classifier)

对classifier权重normalized
在这里插入图片描述

τ = 1 \tau = 1 τ=1 时,就是标准的L2-Normalization;当 τ = 0 \tau = 0 τ=0 时,表示没有进行scaling操作。 τ ∈ ( 0 , 1 ) \tau \in (0,1) τ(0,1),其值是通过cross-validation来选择的。

3-4 Learnable weight scaling (LWS)

f i f_{i} fi 看作是一个可学习的参数,我们通过固定住representations和classifier两部分的weighs来只学习这个scaling factors
在这里插入图片描述

4 Experiments

通过各类对比实验,该研究得到了如下观察:

  1. 解耦表征学习与分类为两个过程均取得了非常好的效果,并且打破了人们对长尾分类固有的「样本均衡采样学习效果最好,拥有最具泛化性的特征表示」这一经验之谈。
  2. 重新调整分类边界对于长尾分布的物体识别来说是非常有效的。
  3. 将该研究提出的解耦学习规则应用到传统网络(如 ResNeXt)中,仍能取得很好的效果,这说明该策略确实对长尾分类具备一定指导意义。
    在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

5 训练注意事项

5-1 表征学习阶段

学习过程中保持网络结构(比如 global pooling 之后不需要增加额外的全连接层)、超参数选择、学习率和 batch size 的关系和正常分类问题一致(比如 ImageNet),以确保表征学习的质量。

类别均衡采样:采用多 GPU 实现的时候,需要考虑使得每块设备上都有较为均衡的类别样本,避免出现样本种类在卡上过于单一,从而使得 BN 的参数估计不准。

渐进式均衡采样:为提升采样速度,该采样方式可以分两步进行。第一步先从类别中选择所需类别,第二步从对应类别中随机选择样本。

5-2.分类器学习阶段

重新学习分类器(cRT):重新随机初始化分类器或者继承特征表示学习阶段的分类器,重点在于保证学习率重置到起始大小并选择 cosine 学习率。

τ-归一化(tau-normalization):τ 的选取在验证集上进行,如果没有验证集可以从训练集模仿平衡验证集,可参考原论文附录 B.5。

可学习参数放缩(LWS):学习率的选择与 cRT 一致,学习过程中要保证分类器参数固定不变,只学习放缩因子。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/187583
推荐阅读
相关标签
  

闽ICP备14008679号