赞
踩
先列出两个对抗样本创建的github链接:
对抗样本发生的原因:深度学习模型的高度线性性质,导致通过线性模型参数的点乘累积放大输入图像像素值的微小改变。
•固定模型参数W,b,梯度上升更新x,使推理(分类)结果远离正确值y。
•IFGSM生成的对抗样本比FGSM生成出的精度更高,但是迁移性不一定有FGSM好。 (Reason: drop into poor local maxima; “overfit” the model.)
在I-FGSM的基础上加上Momentum技术,生成质量更高的对抗样本的同时,提高对抗样本的迁移性
•黑盒生成对抗样本:基于对抗样本迁移的方法。
仿照被攻击模型的任务,训练一个同样功能的本地模型,通过白盒方式生成本地模型的对抗样本,通常这些样本也有攻击这些模型的能力。
代表方法:Zeroth Order Optimization'(ZOO)[9] attack, Substitute Attack[10]
•使用K个model
•三个层面的叠加:logits层面、prediction层面和loss层面
•同时攻击多个model的对抗样本性能更强。
固定参数W,b,选定label y_target,梯度下降更新x,使推理结果逼近y_target。
x∗=x-ϵsign(∇_x L(x,y_target))
•GAN生成对抗样本的目标是生成视觉上真实同时能使目标模型分类错误的图像。
普通GAN loss,判别器用于分辨原始样本和对抗样本,生成器用于生成创建对抗样本的噪声。
对抗样本loss,f是被攻击模型,t是原始样本经过模型分类后的target
,用于限制GAN的训练扰动
,综合三种loss一起训练。
结果:将噪声去除了,但是没有提升模型分辨对抗样本的性能
原因:随机噪声对准确率的影响会随着去噪网络的传递而减少,但是对抗噪声的影响会变大,所以基本的去噪无法解决这个问题
对原始对抗样本图片的去噪方法(PGD)效果不佳,于是将损失函数加在网络高层的特征层上的方法(HGD)
•将Loss加在不同的网络层,分别对应三种方法:FGD, LGD, CGD。
此外:HGD方法具有可迁移性,在一个网络上训练的抗造器借给另一个完全不同的网络也会起到不错的抗噪效果。
同时:可以使用Ensemble的方法提升准确率
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。