当前位置:   article > 正文

多示例学习(Multi-Instance Learning)_多实例学习

多实例学习

多示例学习(Multi-Instance Learning)

1、什么是多示例学习

在机器学习中, 多示例学习 (MIL) 是由监督式学习演变而来的。相较于输入一系列被单独标注的示例,在多示例学习中,输入的是一系列被标注的“包”,每个“包”都包括许多示例。举一个二元分类的简单的例子,当包中的所有示例都是负例时,这个包会被标注为负包。另一方面,当包中至少含有一个正例时,这个包会被标注为正包。
图像分类举一个例子:给出一个图像,我们想要根据图像的画面内容来确定它的目标类别。比如,当图像同时包括了“沙子”和“水”时,图像的目标类别可能是“海滩”。在多示例学习中,图像被描述成一个包X={X1,X2,…Xi},每个Xi均是从图像中相应第i个区域中提取出来的特征向量(我们称之为示例),N是图像被分割出的区域(示例)个数。当图像包同时包含“沙子”区域示例和“水”区域示例时,这个包会被标注成正例(“海滩”)。
多示例学习的目的是,通过对具有分类标签的多示例包的学习,建立多示例分类器,并将该分类器应用于未知多示例包的预测。

2、多示例学习与传统监督学习的区别

在传统监督学习中,一个实例只有一个精确的标签。例如,在分类任务中,每个实例只有一个确定的类别标签。但在多示例学习问题中,一个包可以包含来自不同类别的实例。因此,一个包不能简单地被划分成单一的类别。

在多示例学习中,模型要能够准确地判断一个包中是否存在一个或多个目标实例。因此,多示例学习算法常使用弱监督来确定包级别的标签。这些算法中,一种标准的弱监督方式是包的存在和不存在。如果一个包内存在至少一个目标实例,则认为该包属于正类,否则认为该包属于负类。

3、不同方向的多示例方法

在这里插入图片描述

3.1基于实例的方法

基于实例的多示例学习方法主要用于解决具有不完整标签信息的问题。在这种方法中,每个训练示例由一个包含正例和负例实例的集合组成。正例实例属于目标类别,而负例实例则不属于目标类别。通过学习这些示例之间的关系,模型可以预测新示例是否属于目标类别。

假设要构建一个垃圾邮件过滤器。有许多已经标记为垃圾邮件或非垃圾邮件的电子邮件,但是这些标记只是邮件级别的,并没有具体到每个单词或短语。基于实例的多示例学习可以帮助利用这些邮件集合,通过学习垃圾邮件和非垃圾邮件实例之间的共性和差异来构建一个分类模型。

在这个例子中,可以将每封电子邮件视为一个示例,其中每个示例包含多个单词或短语作为实例。正例示例可以是已知的垃圾邮件中的部分单词或短语,而负例示例可以是已知的非垃圾邮件中的部分单词或短语。基于实例的多示例学习算法可以通过分析这些示例之间的共性和差异来学习识别垃圾邮件的模型。

基于实例的多示例学习方法在许多其他领域和任务中也有广泛应用,例如计算机视觉、文本分类和生物信息学等。

3.2基于包的方法

在基于包的方法中,训练示例被组织成包的形式,而不是单个的实例。

每个包包含多个示例,其中可能有正例实例和负例实例。一个包被认为是正例包,如果它至少包含一个正例实例;否则,它被认为是负例包。通过学习包级别的信息和包与包之间的关系,基于包的方法可以用于预测新的包是否属于目标类别。

假设要构建一个医学图像分类器,用于识别肿瘤。有许多医学图像的集合,每个图像都可能包含多个图像块(即示例),每个图像块可能属于肿瘤区域或非肿瘤区域。

在基于包的方法中,可以将每个图像作为一个包,其中包含了该图像中的多个图像块作为示例。如果一个图像包含至少一个肿瘤图像块,那么该图像包被认为是正例包;否则,它被认为是负例包。基于包的多示例学习算法可以通过分析包级别的信息和包与包之间的关系来学习识别肿瘤的模型。

基于包的方法在许多领域和任务中都有应用,例如图像分类、物体检测和文本分类等。这种方法可以处理示例之间的相关性和上下文信息,并在一定程度上提供了对噪声和不完整标签的鲁棒性。

3.3基于嵌入的方法

在基于嵌入的方法中,每个示例被表示为一个向量或嵌入,其中向量的维度通常较低。这些嵌入向量通过学习过程得到,以捕捉示例之间的相似性和差异性。通常,正例示例被鼓励在嵌入空间中更接近,而负例示例则被鼓励在嵌入空间中更远离。

基于嵌入的方法可以使用各种机器学习算法,例如神经网络、支持向量机(SVM)或聚类方法。通过学习嵌入空间中的示例分布和结构,可以进行多示例分类、聚类、检索等任务。

假设要构建一个音乐推荐系统,根据用户喜好预测他们可能喜欢的歌曲。有许多用户的播放历史记录,每个历史记录包含多首歌曲作为示例。基于嵌入的多示例学习可以通过将每首歌曲映射到一个低维嵌入空间来学习音乐的表示,进而预测用户可能喜欢的新歌曲。

基于嵌入的方法在多示例学习和其他机器学习任务中都有广泛应用。通过学习嵌入空间,模型可以从原始高维示例空间中提取出有用的特征和表示,从而提高学习性能和泛化能力。

3.4神经网络方法

神经网络是一类由多个神经元层组成的模型,通过学习输入数据的非线性映射关系来进行学习和预测。

在多示例学习中,神经网络可以用于建模示例之间的复杂关系,并通过学习适当的权重和参数来进行分类、聚类或检索等任务。以下是一些常见的神经网络方法应用于多示例学习的例子:

  1. 多层感知机(Multilayer Perceptron,MLP):MLP是一种最基本的前馈神经网络,它由一个或多个隐藏层和一个输出层组成。在多示例学习中,MLP可以接受示例的特征作为输入,并通过学习隐层之间的权重来学习示例之间的复杂关系。

  2. 卷积神经网络(Convolutional Neural Network,CNN):CNN在图像处理任务中表现出色,也可以应用于多示例学习。通过卷积层和池化层,CNN可以学习局部特征,并在高层次特征中捕捉示例之间的关系。这对于图像分类、物体检测等任务非常有用。

  3. 递归神经网络(Recurrent Neural Network,RNN):RNN是一类具有循环连接的神经网络,适用于处理序列数据。在多示例学习中,RNN可以处理具有时间或顺序依赖性的示例,并学习其内在的时序关系。

  4. 长短期记忆网络(Long Short-Term Memory,LSTM):LSTM是一种特殊类型的RNN,通过门控机制来解决长序列依赖性问题。在多示例学习中,LSTM可以用于建模示例序列的时序关系,例如文本分类中的句子分类任务。

  5. 注意力机制(Attention Mechanism):注意力机制允许模型集中于输入数据的特定部分或重要特征。在多示例学习中,注意力机制可以用于加权示例的重要性,从而更好地建模示例之间的关系。
    注意力机制通过为每个示例分配一个权重或注意力系数,使得模型可以根据示例的相对重要性来聚焦于不同的示例。这可以提高模型对关键示例的关注程度,从而提升学习性能和泛化能力。注意力机制在多示例分类、图像描述生成和机器翻译等任务中被广泛应用。

  6. 残差连接(Residual Connection):残差连接是一种跨层连接技术,旨在解决深层神经网络中的梯度消失和模型收敛问题。在多示例学习中,残差连接可以用于更好地传递示例的信息和梯度。
    通过残差连接,模型可以直接将前一层的输入添加到后续层的输出中,形成一个跳跃连接。这样可以使模型更容易学习到残差或变化部分,从而提高信息传递和梯度流动,有助于模型更深层次的表示学习。
    残差连接在深度残差网络(Residual Neural Network,ResNet)中得到广泛应用,这对于图像分类、目标检测和语义分割等任务具有重要意义。残差连接可以减轻梯度消失问题,并帮助模型更好地利用深层特征。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/618037
推荐阅读
相关标签
  

闽ICP备14008679号