赞
踩
目录
基于对比学习(ContrastiveLearning)的文本表示模型【为什么】能学到文本【相似】度?
视图预测 View Prediction (Cross modal-based)
Contrastive Learning with Hard Negative Samples
Support-set bottlenecks for video-text representation learning
Hard Negative Mixing for Contrastive Learning
Supervised Contrastive Learning
Contrastive Learning with Adversarial Examples
What Makes for Good Views for Contrastive Learning?
自监督学习(Self-supervised learning)最近获得了很多关注,因为其可以避免对数据集进行大量的标签标注。它可以把自己定义的伪标签当作训练的信号,然后把学习到的表示(representation)用作下游任务里。最近,对比学习被当作自监督学习中一个非常重要的一部分,被广泛运用在计算机视觉、自然语言处理等领域。它的目标是:将一个样本的不同的、增强过的新样本们在嵌入空间中尽可能地近,然后让不同的样本之间尽可能地远。
有监督训练的典型问题,就是标注数据是有限的。目前NLP领域的经验ÿ
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。