赞
踩
Decision-based adversarial attacks: Reliable attacks against black-box machine learning models
本文提出了一种boundary-based的攻击方法,本方法不需要模型的梯度信息或score信息,因此可进行白盒和黑盒攻击。本方法还攻破了防御蒸馏(defensive distillation),顺便对一大类通过隐藏梯度的防御方法判了死刑。
首先比较了目前方法的优缺点:
本文提出的原因:
score-based
方法相比,decision-based
攻击方法与真实世界相关性更强(where confidence scores or logits are rarely accessible. );decision-based
攻击方法相较于其它防御方法具有更加鲁棒的潜力;transfer-based
方法相比,decision-based
方法需要的信息更少。本文的工作及限定:
decision-based
的攻击方法是非常重要的,且和真实世界更加的紧密相关,对于估量模型的鲁棒性是一个很重的方法;decision-based
的方法,可适用于不同复杂机器学习模型和数据集。边界攻击包括:1. 概念上非常简单的;2. 非常灵活的;3. 需要少量的超参调整;4. 可与最好的gradient-based
攻击方法相媲美;Boundary-attack
可以打破之前建议的防御方法(防御蒸馏);总结:
在游走的时候,落入边界内的都是能正确分类的,然后即使这样在边界上也能找到一个距离
original image
最近的点。
算法流程:
输入:原始图片+对抗扰动准则,模型的决策
输出:满足条件最小的对抗样本
- 选择一个对抗样本作为初始点(start from a point that is already adversarial);
- 然后进行随机游走(random walk),一方面要使得图片仍然是对抗样本;另一方面和原始图片的“distance”不能太远
执行完每一迭代步后:
如何更新下一步的扰动(对抗图片)本质上是在对抗/非对抗边界上进行拒绝采样。
Boundary attack
需要起始点就是对抗样本,因此如何选择初始点是个问题。
CV
中,因为图片约束在[0,255]
,因此直接从[0,255]
中均匀抽样得到初始点。(拒绝不是对抗样本的图片)proposal distribution
的选择决定了算法的效率,即如何选择游走方向。最佳的proposal distribution
同样应该取决于要攻击的区域或模型,但是对于vision-related
的问题,下面简单的分布就能满足要求:
即扰动样本是图片;扰动不能太大;下一次游走的方向应该是要减小和原图片的distance
。(
d
d
d是根据模型的输出来决定的,如何决定?)
实际中选择的分布是一种更简单的启发式分布:
rescale
和clip
,使得其满足上面的(1)、(2);即如何判断一个被分类为对抗样本的图片是否是误分类。
一个可能的选择是模型预测的top-k
误分类,或是某些置信度分数的top-k
阈值中不包括原始的分类标签。
Boundary attack
有两个相关的参数:
这两个参数都会随着边界的局部几何情况进行动态调整。方法受Trust Region method
的启发。
一个点更新到下一个点的过程可分为两步,首先是在以原始图片为中心的超球上走一步,保证下一步得到的图片仍然是对抗样本,然后再朝着原始样本走一步。这两个步长都需要动态调整:
orthogonal step
,这一步是在以原始图片为中心的超球上游走,是为了确定下一步游走的方向,以及这一步需要足够小。如上图所示,如果是对抗样本的概念大于50%
,则增大步长;反之则减小步长。首先对攻击成功率的评估指标定义两个一个metric
:
S
A
(
M
)
=
median
i
(
1
N
∥
η
A
,
M
(
o
i
)
∥
2
2
)
\mathcal{S}_{A}(M)=\operatorname{median}_{i}\left(\frac{1}{N}\left\|\boldsymbol{\eta}_{A, M}\left(\boldsymbol{o}_{i}\right)\right\|_{2}^{2}\right)
SA(M)=mediani(N1∥∥ηA,M(oi)∥∥22)
式中,
η
A
,
M
(
o
i
)
∈
R
N
\eta_{A, M}\left(\boldsymbol{o}_{i}\right) \in \mathbb{R}^{N}
ηA,M(oi)∈RN,表示的是攻击方法
A
A
A在模型
M
M
M下第
i
i
i-th
样本上的扰动。
S
A
\mathcal S_A
SA是最终的得分,定义为攻击方法
A
A
A下所有样本的
L
2
L_2
L2距离。
如下所示,gradient-based
、Transfer-based
、Score-based
和本文提出的Boundary-based
方法可分别进行目标/目标共攻击,本文仅比较gradient-based
的三种方法,即FGSM
、DeepFool
和C&W
方法。
这样看来也有generative properties
??
FGSM
),但是对于Boundary Attack
的方法无效(Defensive Distillation仍然是”隐藏“了梯度);Boundary Attack
可以攻破防御蒸馏,同时扰动变化的不大。一方面说明蒸馏防御并不能有效的提高模型的鲁棒性;另一方面也说明了Gradient Masking
这一大类方法的失效。In many real-world machine learning applications the attacker has no access to the architecture or the training data but can only observe the final decision.
攻击基于Clarifai
的两个模型:一个是识别品牌的模型;一个是识别名人的模型。
ion-based black-box attack;
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。