赞
踩
对比学习的基本想法是同类相聚,异类相离
从不同的图像获得的表征应该相互远离,从相同的图像获得的表征应该彼此靠近
具体框架:
随机抽取 N个样本的小批量样本,并在从小批量样本上生成增强视图,从而产生 2N 个数据点。 本文无明确地指定负例,而是给定一个正对(positivepair),将小批量中的其他 2N−2个增强示例视为负示例。
基于这样一个直观的想法来解决Non-IID问题:
the model trained on the whole dataset is able to extract a better feature representation than the model trained on a skewed subset.
作者在CIFAR-10做了个实验,来验证他的这种直觉。
问题定义
MOON的目标
MOON的loss函数
MOON在本地训练阶段,会有三个表征(representation)
With model weight w w w, R w ( ⋅ ) R_w(·) Rw(⋅) to denote the network before the output layer (i.e., R w ( x ) R_w (x) Rw(x)is the mapped representation vector of input x). |
---|
我们的目标是让 z z z靠近 z g l o b z_{glob} zglob(固定),让 z z z 远离 z p r e v z_{prev} zprev(固定)。
我们的本地模型训练时的loss有两部分组成:传统的交叉熵损失 l s u p \mathcal{l}_{sup} lsup以及本文提出的model-contrastive loss l c o n \mathcal{l}_{con} lcon
其中
τ
\tau
τ为温度系数,分子是正样本对
(
z
,
z
glob
)
(z, z_{\text {glob}})
(z,zglob),分母是正样本对
(
z
,
z
glob
)
(z, z_{\text {glob}})
(z,zglob)+负样本对
(
z
,
z
prev
)
(z, z_{\text {prev}})
(z,zprev)
MOON的优化目标(loss)如下:
MOON伪代码
SimCLR和MOON
作者还对比了下SimCLR和MOON框架
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。