赞
踩
摘要
多标签分类研究每个示例同时属于多个标签的任务。作为一种代表性方法,等级支持向量机(Rank-SVM)旨在使等级损失最小化,并且还可以减轻类不平衡问题的负面影响。然而,由于其用于阈值化的堆叠方式,它可能会遭受错误累积,从而降低最终分类性能。二进制相关性(BR)是另一种典型的方法,旨在最大程度地减少汉明损失只需一步学习。但是,它可能存在类不平衡问题,并且没有考虑标签相关性。为了解决上述问题,我们提出了一种新颖的多标签分类模型,该模型将排名支持向量机和二进制相关性与健壮的低秩学习(RBRL)结合在一起。RBRL继承了Rank-SVM的秩损失最小化优点,从而克服了BR遭受类不平衡问题并忽略标签相关性的缺点。同时,它利用了汉明损失的最小化和BR的一步学习优势,从而解决了Rank-SVM的缺点,包括另一个阈值学习步骤。此外,在低维标签空间的假设下,利用低秩约束进一步利用高阶标签相关性。此外,为了实现非线性多标签分类器,我们导出了核化RBRL。两种加速近端梯度法(APG)用于有效解决优化问题。几种最先进方法的广泛比较实验说明了我们的方法RBRL具有高度竞争性或优越的性能。
1、介绍
这项工作的贡献主要总结如下:
(1)我们提出了一种新颖的多标签分类模型,该模型将Rank-SVM和BR与强大的低秩学习结合在一起。
(2)与现有的低阶方法(主要是线性模型)不同,我们推导了核化RBRL,以捕获输入和输出之间的非线性关系。
(3)对于线性和内核RBRL,我们使用两种加速的近端梯度法(APG)来快速收敛,从而有效地解决优化问题。
(4)大量的实验证实了我们的方法RBRL优于几种最先进的MLC方法。
2、相关工作
3、问题描述
在本节中,我们首先提供基本的线性Rank-SVM模型。然后,我们通过二进制相关性将阈值化步骤纳入排名学习问题。接下来,利用低秩约束来进一步利用标签相关性。之后,我们提出线性模型的核化。最后,我们将提出的方法RBRL与Rank-SVM的其他变体方法进行了比较。
3.1、初步
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。