赞
踩
成功从很少的样本中学习和概括的能力是区分人工智能和人类智能的一个明显的边界。人类智能的一个特点是能够从一个或几个例子中快速建立对概念的认知。相关研究表明:人类的显著学学习能力得益于人脑中前额叶皮层(PFC)和工作记忆,特别是PFC特有的神经生物学机制与大脑中存储的以往经验的相互作用。
深度学习算法成功主要归结于三个关键因素:强大的计算资源、复杂的神经网络结构;大规模的数据集。在真实的应用场景中,如医学、军事和金融领域,无法获取到充足的标注样本。因此从很少的样本中学习和概括的能力至关重要。
研究小样本学习(Few Shot Learning, FSL)的意义如下:FSL不依赖于大规模的训练样本、缩小AI与人类智慧的差距、可以实现低成本、快速的模型部署。受限于机器学习的优化理论,如果一个学习算法仅通过普通的学习技术处理一个FSL任务,而没有任何复杂的学习策略或特定的网络设计,该学习算法将面临严重的过拟合。
论文贡献如下:
机器学习的一般机制是使用先前准备的训练样本上学习的统计模型对未来数据进行预测,多数情况下,模型的泛化能力是由足够数量的训练样本保证的。实际应用中,我们可能只被允许访问少量的数据。
EG Miller等人在2000年提出数字变换的共享密度,并提出了凝结算法,使测试数字图像与特定类别的凝结数字图像相一致,此后越来越多的人致力于FSL的研究。FSL的研究分为两个阶段,2000-2015年为非深度阶段,2015年至今为深度学习阶段,前一阶段的代表作包括:
后一阶段的代表作可以分为基于生成模型的方法和基于判别模型的方法,基于生成模型的方法是直接对后验概率进行建模,以作为模型输入,输出属于任务类的概率分布;基于判别的方法直接使用贝叶斯决策解决
跨域FSL: 和中的样本来自两个不同的数据域
多模态FSL
基于生成模型的FSL方法寻求建模后验概率,通常情况下,寻找数据x和标签y的概率关系并不简单,可行策略是引入中间潜变量z:
基于判别模型的FSL方法尝试使用稀缺训练集直接为任务T建模,其计算模型通常包含一个特征抽取器和一个预测器,其类别可以分为基于增广的、基于度量学习的和基于元学习的。
视觉领域,常见的增广是通过旋转、翻转、裁剪和添加噪声等方法,这些低级的增广手段不足以提高FSL模型的繁华能力,再次背景下,提出了更为复杂的增广模型。基于增广的方法框架如下:
现有的基于增广的FSL方法可以分为有监督和无监督两类:
1. 基于监督增广的FSL方法包括特征轨迹转移(FFT)、AGA、Dual TriNet、Author-Topic(AT)和ABSNet。
2. 基于无监督的增广方法包括GentleBoostKO、Shrinking and Hallucainating(SH)、Hallucinator、CP-ANN、DAGAN、IDeMe-Net等,寻求在没有任何外部信息的情况下增加数据或特征。
度量学习的一般目标是学习一个成对的相似度量S,在该度量下相似样本对可以获得较高的相似性分数,而不同样本对可以获得较低的相似性分数。基于度量学习的框架如下所示:
度量学习使用辅助数据集创建相似性度量,并将其推广到新的任务T类,相似性度量可以是一个简单的距离度量、一个经过验证的网络或其他可行的模块或算法。几种具有代表性的基于度量的FSL方法包括CRM、KernelBoost、Siamese Nets、Triplet Ranking Nets、SRPN、MM和AdaptHistLoss。
元学习提倡跨任务学习,然后适应新的任务。它旨在学习任务水平而不是样本,并学习任务无关的学习系统而不是特定于任务的模型。
元学习分为两个阶段处理FSL问题:元训练和元测试。元训练中,模型暴露于许多独立的监督任务,这些任务在辅助数据集上构建,以了解如何适应未来的相关任务,所有的任务都来自于同一个任务分布并遵循相同的任务范式;元测试阶段,模型在一个新任务上进行测试,该任务的标签控件与元训练中看的标签不相交。基于元学习的FSL方法分为5个子类,L2M,L2F,L2P,L2A和L2R。
L2M Learn-to-Measure,L2M方法本质上继承了度量学习的主要思想,使用元学习策略来学习预期可在不同任务键转移的相似性度量。
L2F Learn-to-Finetune,每种L2F方法都包含一个基础学习者和一个学习者。基础学习者针对特定的任务,以样本为输入,输出预测概率;更高层次的元学习者通过在一系列元训练任务重学习基础学习者,以最大化基础学习者在所有任务中的综合概括能力。令和分别为基础学习者和元学习者的参数
其中,为学习率,L为损失函数。元学习阶段,MAML通过平衡损失和更新的 来优化元学习者:
L2P,Learn-to-Parameterize的思想是为新任务参数和基础学习者或者基础学习者的某些子部件,使其更为具体的处理某些任务。大多数的L2P方法也包括基本学习者和元学习者,与L2F的区别在于,L2P方法的两个学习者在每个任务中同步训练,元学习者本质上是任务特定的参数生成器。对于某个任务T,元学习者需要根据任务T的少数支持样本和处理这些样本的当前基础学习者的状态,为基础学习者或其子部分生成一些特定于T的参数。
L2A,Learn-to-Adjust的核心思想是为特定样本自适应的调整基础学习者中的计算流程或计算节点,使样本与基础学习者兼容。L2A与L2P同样使用元学习者来改变基础学习者,二者的区别在于:一是L2A仅对基础学习者进行一些增量调整,而不是对基础学习者和其子部分进行完全参数化,改变程度较轻;二是L2A方法对基础学习的更改更加细粒度,L2A的调整特定于样本,L2P的参数化是特定于任务的。
L2R,Learn-to-Remember的主要思想是将FSL任务的支持集建模为序列,并将FSL任务表述为序列学习任务。
L2M方法只利用样本的相似性进行推理,无需考虑类的数量和每个类的支持样本,因此不会收到测试场景的特定设置的限制;L2F方法需要使用少数支持样本对每项新任务进行微调,可能产生一个相对较长的适应期来准备每项任务;L2A和L2A必须部署用于基础学习者完全不同的另一个元学习者来生成一系列的模型参数,因此其勉励你的挑战是大量的模型参数,增加了模型训练的难度。
介绍了几个新的扩展主题,包括半监督FSL、无监督FSL、跨域FSL、广义FSL和多模态FSL。
[1] https://blog.csdn.net/Goodlick/article/details/108637014
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。