当前位置:   article > 正文

类感知对比半监督学习(Class-Aware Contrastive Semi-Supervised Learning)论文阅读笔记

class-aware contrastive semi-supervised learning

文献地址:论文链接,Github代码:Github链接

1 研究背景

现有基于伪标签的半监督学习方法存在的问题:

  • 伪标签 → 存在确认偏差(Confirmation Bias)
  • 分布外噪声数据 → 影响模型的判别能力
  • 是否存在一种通用增益方法,可适用于各基于伪标签的半监督方法?
    • MixMatch[1](NIPS, 2019):数据Mixup → 预测锐化(Sharpen)
    • FixMatch[2](NIPS, 2020):置信度阈值,弱增强 → 生成伪标签 → 监督强增强

2 关键卖点

  • 提出一套缓解确认偏差(Confirmation Bias)的通用架构:
    • 对于可靠的分布内数据(In-distribution Data):使用有监督对比学习。
      • 分布内数据:指无标记数据集不包含新类别,或具有平衡的数据分布的数据。
    • 对于存在噪声的分布外数据(Out-of-distribution Data):对特征进行无监督对比学习。
      • 分布外数据:指无标记数据集包含未知类别,或具有不平衡的数据分布的数据。
  • 针对伪标签存在的噪声问题:进行权重分配。

3 主要架构

  • 整体架构目标:最小化相似性矩阵(Feature Affinity)和目标矩阵(Target Matrix)之间的有监督对比损失L_{con},无标签的强增强样本与弱增强样本生成的伪标签之间的交叉熵损失L_{u},以及有标签样本的交叉熵损失L_{x}。即\mathcal{L}=\mathcal{L}_{x}+\lambda_{u} \mathcal{L}_{u}+\lambda_{c} \mathcal{L}_{c}
  • 对于有标签样本:采用图像的弱增强视图进行有监督学习,优化交叉熵损失。
    •  通过预测层(Cls Head),计算交叉熵损失:\ell_{sup}=\frac{1}{B} \sum_{i=1}^{B} \mathrm{H}\left(y_{i}, P_{​{cls}}\left( Aug_{w}\left(x_{i}\right)\right)\right)

    • 输入:\mathcal{X}=\left\{\left(x_{i}, y_{i}\right): i \in(1, \ldots, B)\right\},其中x_{i}为第i张图片,y_{i}为该图片对应的one-hot向量,B为采样的一个批量大小。
    • 输出:p_{m}\left ( y|x \right ),模型对输入x产生的预测类别分布。
图1 CCSSL架构。给定一个批次的无标记图像,弱增强视图经过半监督模块,该模块可以采用任意的基于伪标签的半监督学习方法来产生模型预测结果。
  • 对于无标签样本:
    • 输入:\mathcal{U}=\left\{u_{i}: i \in(1, \ldots, \mu B)\right\},其中\mu是一个超参数,权衡有标签样本集\mathcal{X}和无标签样本集\mathcal{U}的相
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Guff_9hys/article/detail/944134
推荐阅读
相关标签
  

闽ICP备14008679号