赞
踩
这是2020年关于Noisy Label的一篇综述,简要的做一记录。
https://arxiv.org/abs/2007.08199
为什么要解决Noisy Labels的问题?
DNN's can easily fit an entire training dataset with any ratio of corrupted labels, which eventually resulted in poor generalizability on a test dataset.
也就是说,DNN强大的拟合能力导致在有噪声污染数据集上训练的模型,在测试集上的泛化能力变差;
从细节原因来看,有如下几点:
Supervised-Learning
Adversarial Learning:
Data imputation:
Feature Noise
主要分为5类进行综述讨论
像常规的数据增强,dropout单独使用并不能提升测试的准确率,因此需要结合一些针对于Noisy Labels的正则化方法使用。
Robust Loss Function从理论层面保证了模型可以学到一个最小的risk,从而保证模型是noisy-tolerate的。
一些loss function的比较:
评价:这些损失函数在简单的场景(类别少的分类)效果会比较好,但是增加了模型收敛的时间;
DNN在更新迭代的时候,由选择的clean example来进行梯度的更新;同时在论文中,作者引用DNN的memorization effect的时候指出:
In the empirical studies [21], [141], the memorization effect is also observed since DNNs tend to first learn simple and generalized patterns and then gradually overfit to all noisy patterns. As such, favoring small-loss training examples as the clean ones are commonly employed to design robust training methods.
但是不正确的样本选择会带来累积误差,所以很多方法就是在做如何才能更好的选择样本;
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。