赞
踩
【全文翻译】MixMatch: A Holistic Approach to Semi-Supervised Learning
半监督学习已被证明是利用未标记数据来减轻对大型标记数据集的依赖的强大范例。在这项工作中,我们统一了当前的半监督学习主导方法,以产生一种新算法MixMatch,该算法猜测数据增强的未标记示例的低熵标记,并使用MixUp混合标记和未标记的数据。MixMatch可在许多数据集和标记的数据量上大幅度获取最新的结果。 例如,在具有250个标签的CIFAR-10上,我们将错误率降低4倍(从38%降至11%),而在STL-10上降低2倍。我们还演示了MixMatch如何帮助实现显着更好的准确性与隐私权衡,以实现差异化隐私。最后,我们进行消融研究,以弄清楚MixMatch的哪些成分对其成功最重要。我们发布实验中使用的所有代码。
最近在训练大型深度神经网络方面取得的成功,在一定程度上要归功于大型标记数据集的存在。然而,对于许多学习任务而言,收集标签数据是昂贵的,因为它必然涉及专家知识。最好用医疗任务来说明这一点,在这种情况下,测量需要昂贵的设备,而标签则是耗时的分析的成果,而该分析是从多位人类专家那里得出的。此外,数据标签可能包含私人信息。相比之下,在许多任务中,获取未标记的数据要容易得多或便宜得多。
半监督学习(SSL)试图通过允许模型利用未标记的数据来大大减轻对标记数据的需求。半监督学习的许多最新方法都增加了一个损失项,该损失项是根据未标记的数据计算的,并鼓励该模型对看不见的数据进行更好的概括。在最近的工作中,该损失项属于以下三类之一(在第2节中进一步讨论):熵最小化—鼓励模型对未标记的数据输出可信的预测;一致性正则化—鼓励模型在其输入受到干扰时产生相同的输出分布;和通用正则化—鼓励模型很好地概括并避免过度拟合训练数据。
在本文中,我们介绍了混合算法(MixMatch),这是一种SSL算法,它引入了一种单一损失,可以很好地统一这些主要方法用于半监督学习。与以前的方法不同,MixMatch一次性针对所有属性,我们发现这些属性带来以下好处:
简而言之,MixMatch为未标记的数据引入了统一的损失项,可以无缝地减少熵,同时保持一致性并保持与传统正则化技术的兼容性。
为了为MixMatch奠定基础,我们首先介绍SSL的现有方法。我们主要关注那些基于MixMatch的最新技术。关于SSL技术的文献很多,我们在这里不予讨论(例如,“转换”模型,基于图的方法,生成模型等)。在文献49中提供了更全面的概述。在下文中,我们将参考通用模型p_model (x|y;θ),该模型为具有参数θ的输入x在类标签y上产生分布。
监督学习中的一种常见的正则化技术是数据增强,它应用了假定不影响类语义的输入转换。例如,在图像分类中,通常会弹性变形或向输入图像添加噪声,这可以在不更改其标签的情况下显着改变图像的像素内容。粗略地说,这可以通过生成几乎无限的新的,经过修改的数据流来人为地扩展训练集的大小。一致性正则化通过利用分类器即使在被扩展后也应为未标记的示例输出相同的类分布的思想,将数据扩展应用于半监督学习。更正式地讲,一致性正则化要求将未标记的示例x分类为Augment(x),这是对自身的扩充。
在最简单的情况下,对于未标记的点x,先前的工作加上损失项
L
P
=
1
(
K
′
B
2
)
∑
i
,
j
∈
[
∣
u
′
∣
]
,
i
≠
j
φ
τ
c
(
max
(
q
l
)
)
(
v
l
,
q
l
)
=
U
i
′
(
v
r
,
q
r
)
=
U
j
′
⋅
φ
τ
s
(
f
sim
(
q
l
,
q
r
)
)
⋅
f
dist
(
q
l
,
p
model
(
y
~
∣
v
r
;
θ
)
)
请注意,Augment(x)是随机变换,因此等式(1)中的两个项不一样。“平均教师”替换等式(1)中的一个术语。使用模型参数值的指数移动平均值进行模型输出。这提供了一个更稳定的目标,并根据经验发现可以显着改善结果。这些方法的缺点是它们使用特定于域的数据增强策略。“虚拟对抗训练”(VAT)通过代替计算附加扰动来解决此问题,以将其应用于输入,从而最大程度地改变输出类别的分布。MixMatch通过对图像(随机水平翻转和裁切)使用标准数据增强来利用一致性正则化的形式。
在许多半监督学习方法中,一个常见的基本假设是,分类器的决策边界不应穿过边缘数据分布的高密度区域。一种强制执行此方法的方法是,要求分类器对未标记的数据输出低熵预测。这在文献18中用损失项明确完成,该项使未标记数据x的p_model (x|y;θ)的熵最小。在文献31中,这种形式的熵最小化与VAT相结合以获得更强大的结果。“ Pseudo-Label”通过根据未标记数据的高可信度预测构建硬(1-hot)标记并将其用作标准交叉熵损失的训练目标,来隐式地最小化熵。MixMatch还通过在目标分布上针对未标记数据使用“锐化”功能来隐式实现熵最小化,如3.2节所述
正则化是指对模型施加约束的一般方法,以使其难以记忆训练数据,因此希望使其更好地泛化到看不见的数据。我们使用权重衰减对模型参数的L2范数进行惩罚。我们还使用MixMatch中的MixUp来鼓励示例之间的凸出行为。我们将MixUp既用作正则化程序(应用于标记的数据点),又将其作为半监督学习方法(应用于未标记的数据点)。MixUp先前已应用于半监督学习; 特别是,文献45的并行工作使用了MixMatch中使用的方法的子集。我们澄清了我们的消融研究中的差异(第4.2.3节)。
在本节中,我们将介绍我们提出的半监督学习方法MixMatch。MixMatch是一种“整体”方法,结合了第2节中讨论的SSL主导范式的思想和组件。给定批处理的X个标记示例(one-hot编码,代表L个可能的标签之一)和大小相同的U个无标记实例,MixMatch会生成一批经过处理的增强标记的示例X’和一批带有“猜测”标记U’的增强的未标记示例。然后将 $ U^{\prime}
$ 和 $ X^{\prime}$用于计算单独的标记和未标记损失项。更正式地说,半监督学习的组合损失L定义为
X
′
,
U
′
=
M
i
x
M
a
t
c
h
(
X
,
U
,
T
,
K
,
α
)
\mathcal{X}^{\mathrm{\prime }},\mathrm{ }\mathcal{U}^{\mathrm{\prime }}=MixMatch\left( \mathcal{X},\mathcal{U},\mathrm{T},\mathrm{K},\mathrm{\alpha} \right)
X′,U′=MixMatch(X,U,T,K,α)
L
X
=
1
∣
X
′
∣
∑
x
,
p
∈
X
′
H
(
p
,
p
m
o
d
e
l
(
y
∣
x
;
θ
)
)
\mathcal{L}_{\mathcal{X}}=\frac{1}{\left| \mathcal{X}^{\mathrm{\prime }} \right|}\sum_{x,p\in \mathcal{X}^{\mathrm{'}}}{H\left( p,p_{model}\left( y \mid x;\theta \right) \right)}
LX=∣X′∣1x,p∈X′∑H(p,pmodel(y∣x;θ))
L
U
=
1
L
∣
U
′
∣
∑
u
,
q
∈
U
′
∥
q
−
p
m
o
d
e
l
(
y
∣
u
;
θ
)
∥
2
2
\mathcal{L}_{\mathcal{U}}=\frac{1}{L\left| \mathcal{U}^{\mathrm{\prime }} \right|}\sum_{u,q\in \mathcal{U}^{\mathrm{'}}}{\left\| q-p_{model}\left( y \mid u;\theta \right) \right\| _{2}^{2}}
LU=L∣U′∣1u,q∈U′∑∥q−pmodel(y∣u;θ)∥22
L
=
L
X
+
λ
U
L
U
\mathcal{L}=\mathcal{L}_{\mathcal{X}}+\lambda _{\mathcal{U}}\mathcal{L}_{\mathcal{U}}
L=LX+λULU
其中
H
(
p
,
q
)
H(p,q)
H(p,q)是分布
p
,
q
p,q
p,q之间的交叉熵,
T
,
K
,
α
T,K,\alpha
T,K,α和
λ
u
\lambda_u
λu是下面描述的超参数,算法1 中提供了完整的MixMatch算法,图1中显示了标签猜测过程的示意图。接下来,我们描述MixMatch的每个部分。
Figure 1: MixMatch中使用的标签猜测过程图。随机数据增强被应用于未标记图像K次,并且每个增强图像都通过分类器进行馈送。然后,通过调整分布的温度来“锐化”这K个预测的平均值。有关完整说明,请参见算法1。
正如许多SSL方法中的典型做法一样,我们在标记和未标记的数据上都使用数据增强。对于这批标记数据X中的每个 x b x_b xb,我们生成一个转换后的版本 x ~ b = A u g m e n t ( x b ) \tilde{x}_b=Augment(x_b) x~b=Augment(xb)(算法1,第3行)。对于这批未标记数据U中的每个 u b u_b ub,我们生成K个增量 u ~ b , k = A u g m e n t ( u b ) , k ∈ ( 1 , . . . , K ) \tilde{u}_{b,k}=Augment(u_b),k\in(1,...,K) u~b,k=Augment(ub),k∈(1,...,K)(算法1,第5行)。通过以下小节中描述的过程,我们使用这些单独的增强为每个 u b u_b ub生成一个“猜测标签” q b q_b qb。
对于
U
U
U中每个未标记的示例,MixMatch使用模型的预测为该示例的标签生成一个“猜测”。稍后将这种猜测用于无监督损失项中。为此,我们通过
u
b
u_b
ub的所有K个增量计算模型的预测类分布的平均值
q
ˉ
b
=
1
K
∑
k
=
1
K
p
model
(
y
∣
u
^
b
,
k
;
θ
)
∣
\bar{q}_{b}=\frac{1}{K} \sum_{k=1}^{K} \mathrm{p}_{\text {model }}\left(y \mid \hat{u}_{b, k} ; \theta\right) \mid
qˉb=K1k=1∑Kpmodel (y∣u^b,k;θ)∣
在算法1中第7行。在一致性正则化方法中,通常使用数据扩充来获得未标记示例的人工目标。
锐化:在产生标签猜测时,我们执行了另一步,这受半监督学习中成功实现熵最小化的启发(在2.2节中讨论)。给定对增幅q ̅_b的平均预测,我们应用锐化函数来减少标签分布的熵。在实践中,对于锐化功能,我们使用调整此分类分布的“温度”的通用方法,即
Sharpen
(
p
,
T
)
i
:
=
p
i
1
T
/
∑
j
=
1
L
p
j
1
T
\operatorname{Sharpen}(p, T)_{i}:=p_{i}^{\frac{1}{T}} / \sum_{j=1}^{L} p_{j}^{\frac{1}{T}}
Sharpen(p,T)i:=piT1/j=1∑LpjT1
其中p是一些输入分类分布(具体来说在MixMatch中,p是在增强
q
ˉ
b
\bar{q}_b
qˉb上的平均类预测,如算法1,第8行所示),T是超参数。当T→0时,
Sharpen
(
p
,
T
)
\operatorname{Sharpen}(p, T)
Sharpen(p,T)的输出将接近Dirac(“单热”)分布。由于我们稍后将使用
q
b
=
Sharpen
(
q
ˉ
b
,
T
)
q_b=\operatorname{Sharpen}(\bar{q}_b, T)
qb=Sharpen(qˉb,T)作为模型对
u
b
u_b
ub增大的预测的目标,因此降低温度会鼓励模型产生较低熵的预测。
我们使用MixUp进行半监督学习,与SSL的以往工作不同,我们将带标签的示例和未带标签的示例与标签猜测混合在一起(如3.2节所述生成)。为了与我们的单独损失条款兼容,我们定义了MixUp的稍作修改的版本。对于两个带有相应标签概率
(
x
1
,
p
1
)
,
(
x
2
,
p
2
)
(x_1,p_1 ),(x_2,p_2 )
(x1,p1),(x2,p2)的示例,我们通过
λ
∼
Beta
(
α
,
α
)
λ
′
=
max
(
λ
,
1
−
λ
)
x
′
=
λ
′
x
1
+
(
1
−
λ
′
)
x
2
p
′
=
λ
′
p
1
+
(
1
−
λ
′
)
p
2
其中α是超参数。Vanilla MixUp省略了 (9)(即设定
λ
′
=
λ
\lambda^\prime=\lambda
λ′=λ)。鉴于已标记和未标记的示例在同一批次中串联在一起,我们需要保留批次的顺序以适当地计算各个损失成分。这是通过等式(9)实现的。确保
x
′
x^\prime
x′比
x
2
x_2
x2更接近
x
1
x_1
x1。要应用MixUp,我们首先将带有标签的所有增强标签示例和带有其猜测标签的所有未标签示例收集到
X
^
=
(
(
x
^
b
,
p
b
)
;
b
∈
(
1
,
…
,
B
)
)
U
^
=
(
(
u
^
b
,
k
,
q
b
)
;
b
∈
(
1
,
…
,
B
)
,
k
∈
(
1
,
…
,
K
)
)
(算法1,第10-11行)。然后,我们将这些集合合并,并将结果混洗以形成
W
W
W,它将用作MixUp的数据源(算法1,第12行)。对于
X
′
X^\prime
X′中的第i个示例标签对,我们计算MixUp
(
X
ˉ
i
,
W
i
)
(\bar{X}_i,W_i)
(Xˉi,Wi)并将结果添加到集合
X
′
X^\prime
X′中(算法1,第13行)。我们针对
i
∈
(
1
,
…
,
∣
U
~
∣
)
i\in (1,…,|\tilde{U}|)
i∈(1,…,∣U~∣)计算
U
i
′
=
M
i
x
U
p
(
U
~
i
,
W
i
+
∣
x
~
∣
U_i^\prime=MixUp(\tilde{U}_i,W_{i+|\tilde{x}| }
Ui′=MixUp(U~i,Wi+∣x~∣,有意地使用了W的其余部分,而在
X
′
X\prime
X′构造中没有使用过 (算法1,第14行)。总而言之,MixMatch将X转换为
X
′
X^\prime
X′这是带有数据增强和MixUp(可能与未标记的示例混合)的标记的示例的集合。类似地,将
U
U
U转换为
U
′
U^\prime
U′,即每个未标记示例的多个扩增的集合,并带有相应的标记猜测。
给定我们已处理的批次 X ′ X^\prime X′和 U ′ U^\prime U′’,我们使用等式(3)至(5)中所示的标准半监督损耗。公式(5)将标签和来自 X ′ X^\prime X′的模型预测之间的典型交叉熵损失与预测和来自 U ′ U^\prime U′的猜测标签的平方L2损失相结合。我们在等式(4)中使用此L2损失。(多类Brier得分),因为与交叉熵不同,它有界且对错误的预测较不敏感。由于这个原因,它经常被用作SSL中未标记的数据丢失以及预测不确定性的量度。我们不会像标准那样通过计算猜测的标签来传播梯度。
由于MixMatch结合了多种利用未标记数据的机制,因此引入了各种超参数-特别是锐化温度T,未标记扩增数K,MixUp中Beta的α参数以及无监督损失权重 λ U λ_U λU。在实践中,具有许多超参数的半监督学习方法可能会出现问题,因为使用较小的验证集很难进行交叉验证。但是,实际上,我们发现大多数MixMatch的超参数都是可以固定的,不需要根据每个实验或每个数据集进行调整。具体而言,对于所有实验,我们将T = 0.5且K =2。此外,我们仅在每个数据集的基础上更改α和 λ U λ_U λU。我们发现α= 0.75和 λ U λ_U λU=100是调谐的良好起点。在所有实验中,按照惯例,我们会在训练的前16,000步中将 λ U λ_U λU线性增加至最大值。
我们在标准SSL基准测试(第4.2节)上测试MixMatch的有效性。我们的消融研究将MixMatch各个成分的贡献分开(第4.2.3节)。作为附加应用程序,我们将在第4.3节中考虑保护隐私的学习。
除非另有说明,否则在所有实验中,我们均使用文献中的“ Wide ResNet-28”模型。除以下差异外,我们对模型和训练过程的实现与文献35的实现非常匹配(包括使用5000个示例选择超参数):首先,我们使用指数移动平均值,而不是降低学习率,而是对模型进行了评估。其参数的衰减率为0.999。其次,对于Wide ResNet-28模型,我们在每次更新时都应用0.0004的权重衰减。 最后,我们每 2 16 2^{16} 216个训练样本检查一个点,并报告最后20个检查点的中值错误率。例如,通过平均检查点或选择验证误差最小的检查点,可以简化分析过程,并可能会降低准确性。
首先,我们评估MixMatch在四个标准基准数据集上的有效性:CIFAR-10和CIFAR-100,SVHN和STL-10。在前三个数据集上评估半监督学习的标准做法是将大多数数据集视为未标记,而将一小部分用作标记数据。STL-10是专门为SSL设计的数据集,具有5,000个带标签的图像和100,000个未带标签的图像,这些图像是从与带标签的数据略有不同的分布中得出的。
作为基准,我们考虑在第2节中介绍的中考虑的四种方法(Π模型,平均教师,虚拟对抗训练和伪标签)。我们还单独使用MixUp作为基准。MixUp被设计为用于监督学习的正则化器,因此我们将其应用于SSL进行修改,方法是将其应用于带有扩展标记的示例和带有其相应预测的扩展非标记示例。根据MixUp的标准用法,我们在MixUp生成的猜测标签和模型的预测之间使用了交叉熵损失。正如所主张的,我们在相同的代码库中重新实现了每种方法,并将它们应用于相同的模型(在4.1节中进行了描述),以确保公平地进行比较。我们重新调整了每种基线方法的超参数,与文献35中的方法相比,通常会导致边际精度提高,从而为测试MixMatch提供了更具竞争力的实验设置。
CIFAR-10:对于CIFAR-10,我们使用从250到4000的不同数量的带标记示例(按照标准惯例)来评估每种方法的准确性。结果可以在图2中看到。对于CIFAR-10,我们使用λ_U= 75。我们为每个标记点数创建了5个分割,每个分割点具有不同的随机种子。每个模型都在每个分割上进行训练,错误率由各个分割的均值和方差来报告。我们发现,MixMatch的性能大大优于所有其他方法,例如,使用4000个标签时,错误率达到6.24%。作为参考,在同一模型上,对所有50000个样本进行完全监督的训练可获得4.17%的错误率。此外,MixMatch仅使用250个标签即可获得11.08%的错误率。为了进行比较,在250个标签上,次佳表现方法(VAT)的错误率达到36.03,比MixMatch高4.5倍,考虑到4.17%是在完全监督学习的情况下在我们的模型上获得的错误极限。另外,在4000个标签上,性能次佳的方法(Mean Teacher )获得了10.36%的错误率,这表明MixMatch可以在只有标签数量的1/16的情况下达到类似的性能。我们认为,最有趣的比较是使用很少的标记数据点,因为它揭示了该方法的采样效率,这对于SSL至关重要。
Figure 2:对于不同数量的标签,MixMatch与CIFAR-10上基线方法的错误率比较。确切数字见表5(附录)。 “有监督”是指使用所有50000个培训示例进行培训,并且没有未标记的数据。 拥有250个标签的MixMatch达到的错误率可媲美拥有4000个标签的次佳方法的性能。
Figure 3::对于不同数量的标签,MixMatch与SVHN上基线方法的错误率比较。表6(附录)中提供了确切的编号。 “监督”是指使用所有73257个培训示例进行培训,并且没有未标记的数据。通过250个示例,MixMatch几乎达到了该模型的监督训练的准确性
具有更大模型的CIFAR-10和CIFAR-100:一些先前的工作还考虑了使用更大的2600万参数模型。我们在中使用的基本模型只有150万个参数,这与这些结果的比较令人困惑。为了与这些结果进行更合理的比较,我们测量了增加基本ResNet模型宽度的效果,并评估了MixMatch在28层Wide Resnet模型上的性能,该模型每层有135个滤镜,产生了2600万个参数。我们还将在具有10000个标签的CIFAR-100上对该更大的模型进行MixMatch评估,以与文献2中的相应结果进行比较。 结果显示在表1中。通常,MixMatch匹配或优于文献2的最佳结果,尽管我们注意到,由于模型还使用了更复杂的“摇一摇”正则化。对于此模型,我们使用了0.0008的权重衰减。对于CIFAR-10,我们使用
λ
U
λ_U
λU= 75;对于CIFAR-100,我们使用
λ
U
λ_U
λU= 150。
SVHN和SVHN + Extra:与CIFAR-10一样,我们评估SVHN上每种SSL方法的性能,标签数量从250到4000不等。按照标准做法,我们首先考虑设置73257示例训练集为分为标记和未标记的数据。结果示于图2,3。我们使用
λ
U
λ_U
λU=250。在这里,模型针对每个标记点的数量进行了5次分割,每个随机点都有不同的种子。我们发现在所有标记数据中,MixMatch的性能相对稳定(并且优于所有其他方法)。令人惊讶的是,经过额外的调整,我们能够从Mean Teacher 中获得极佳的性能,尽管其错误率始终比MixMatch的错误率略高。
请注意,SVHN具有两个训练集:train和extra。在完全监督的学习中,将这两个集合连接起来以形成完整的训练集合(604388个样本)。在SSL中,由于历史原因,多余的设置被搁置,仅使用训练(73257个样本)。我们认为,利用未标记数据的训练和额外数据更有趣,因为它显示出未标记样本比已标记样本更高的比例。我们在表3中报告了SVHN和SVHN + Extra的错误率。对于SVHN + Extra,由于可用数据量较大,我们使用α= 0.25,
λ
U
λ_U
λU= 250和较低的权重衰减0.000002。我们发现,在两个训练集上,MixMatch几乎都几乎立即在同一训练集上达到了完全监督的性能–例如,与完全监督的性能相比,MixMatch在SVHN + Extra上仅使用250个标签即可实现2.22%的错误率为1.71%。有趣的是,在SVHN + Extra MixMatch上,对于所考虑的每个标记数据量,在SVHN上的表现均优于完全监督的培训,而没有额外的(2.59%错误)。为了强调这一点的重要性,请考虑以下情形:您可以从SVHN中获得73257个示例,其中有250个示例被标记,并且可以选择:您可以获取更多8倍的未标记数据并使用MixMatch或获取293×更多的标记数据并充分使用监督学习。我们的结果表明,获得其他未标记的数据并使用MixMatch更为有效,这可能比获得293×的标签便宜得多。
STL-10 :STL-10包含5000个训练示例,旨在与10个预定义的折叠一起使用(我们仅使用前5个折叠),每个折叠有1000个示例。但是,所有5000个示例都需要进行一些先前的培训。因此,我们在两种实验设置中进行比较。使用1000个示例,MixMatch不仅超越了1000个示例的最新技术水平,而且超越了所有带有5000个标记示例的最新技术水平。请注意,表2中没有任何基线使用相同的实验设置(即模型),因此很难直接比较结果;但是,由于MixMatch的最小误差是原来的两倍,因此我们相信这是对我们的方法的信任。我们使用
λ
U
λ_U
λU= 50。
Table 1:较大型号(2600万个参数)的CIFAR-10和CIFAR-100错误率(分别带有4,000和10,000个标签)。
Table 2:使用1000个标签拆分或整个5000个标签训练集的STL-10错误率。
Table 3:MixMatch的SVHN和SVHN + Extra的错误率比较。 最后一栏(“全部”)包含在相应训练集中具有所有标签的完全监督的表现。
由于MixMatch结合了各种半监督学习机制,因此与文献中的现有方法有很多共通之处。 因此,我们研究了删除或添加组件的效果,以便进一步了解MixMatch性能的高低。具体来说,我们衡量的是
通过私密学习,我们可以衡量我们的方法的概括能力。确实,保护训练数据的隐私等于证明模型不会过拟合:如果添加,修改或删除其训练样本中的任何一个,则学习算法被认为是差分私有的(最广泛接受的隐私技术定义)。保证不会导致学习到的模型参数有统计学上的显着差异。因此,在实践中,具有差异性隐私的学习是一种正规化形式。每次培训数据访问都会构成潜在的隐私泄漏,将其编码为一对输入及其标签。因此,当计算模型参数的更新时,从私有训练数据进行深度学习的方法(例如DP-SGD和PATE)将受益于访问尽可能少的带标签的私有训练点。半监督学习非常适合这种情况。
我们使用PATE框架进行隐私学习。从未标记的公共数据中以半监督的方式对学生进行培训,部分数据由一群可以访问私有课程的教师标记带标签的训练数据。学生达到固定准确度所需的标签越少,它提供的隐私保证就越强。教师使用嘈杂的投票机制来回应标签查询。如果他们无法达成足够强烈的共识,他们可以选择不提供标签。因此,如果MixMatch改善了PATE的性能,那么这也将说明MixMatch从每个类的几个典范范例中得到的改进的概括性。
我们将MixMatch实现的准确性与隐私权衡与SVHN的VAT基准进行了比较。VAT使以前的最新测试精度达到91.6%,隐私权损失为
ε
\varepsilon
ε= 4.96。由于MixMatch在标记点很少的情况下表现良好,因此能够实现95.21±0.17%的测试精度,而隐私损失ε= 0.97小得多。由于使用
e
ε
e^\varepsilon
eε来衡量隐私程度,因此改善程度约为e^4≈55×,这是一项重大改善。小于1的隐私损失
ε
\varepsilon
ε对应于更强的隐私保证。请注意,在私人培训设置中,学生模型仅使用10,000个示例。
我们介绍了MixMatch,这是一种半监督学习方法,它结合了当前SSL主流范式的思想和组成部分。 通过对半监督和隐私保护学习的广泛实验,我们发现在我们研究的所有设置中,MixMatch与其他方法相比,其表现均得到了显着改善,其错误率通常降低了两个或更多。在未来的工作中,我们有兴趣将半监督学习文献中的其他想法纳入混合方法,并继续探索哪些组件会产生有效的算法。另外,大多数现代半监督学习算法的工作都是根据图像基准进行评估的。我们有兴趣探索MixMatch在其他领域的有效性。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。