赞
踩
最近做的一次汇报,荣幸受到了某位院士的点评指导,整理一下。
首先通俗地去看神经网络对图像进行分类预测,实质就是在训练过程中使网络权重参数拟合训练集的样本分布。对抗样本的概念其实很好理解,就是让模型识别出错,在图片域上的攻击不管你是什么样的算法,其实都是改变了图像的像素值;在物理域上的攻击无非就是添加了一些扰动,像下图中在路牌上贴一些贴纸来进行干扰,这是在目标检测中的应用(前几天跟华为16级的博士聊了几句,目标检测的安全未来会急缺打工人)
正是存在着这样的一些漏洞,才有去做防御的需求,防御总归是比攻击慢一步的,怎么去做防御?首先你要看攻击者是怎么做的,不管是在物理域还是普通的图像识别攻击者做的事情总结起来就是添加扰动,然后让模型识别出错,这个过程就牵扯到两部分:扰动和模型。所以做防御的思路也很清晰,你添加了扰动我就检测出你的扰动,你欺骗我的模型,那我就想方设法地去提高模型的抗干扰能力,也就是模型鲁棒性。这就是对抗样本防御的两个思路。
完全防御这个概念是引的浙大任奎老师的论文,完全防御就是去提高模型的鲁棒性,这里做的PPT不方便给出,只介绍下思想,目前的做法主要有以下三种:
只用完全防御行不行呢,我们来看一下场景
在车牌上贴贴纸,用的是百度的商业API接口,可以正常识别出车牌号,这说明提高模型鲁棒性是有必要的,但如果我来点硬核攻击呢,像这样:
直接把一个字母给盖掉了,这个时候模型基本上在瞎猜,它还会返回给我一个结果,这其实是一种异常,这个时候你怎么去提高你的模型鲁棒性都没有用了,所以在这情况下检测出异常更有意义,目前这方面相对来说还是比较少的,也是下一步可以继续关注的点。
好,回归正题,怎么做检测呢,我们采取的思想是预测不一致,对比样本去噪跟原样本经过模型的输出的差距是否很大,很大就说明是对抗样本,采取的算法17年Xu等提出来的特征压缩算法,检测框架如下:
用了两个去噪算法:压缩图像色深,图像平滑(其实就是中值滤波),基本上没有牵扯到数学公式,特别容易理解,当时看完都给爷整笑了,这都能发顶会。。。但是亲测实用,检测一些对抗样本确实有效,懒得讲咋做的了,看论文一遍就懂,放一张压缩图像色深的去噪效果图:
压缩到一位色深的时候整个成了二值图像,非黑即白,非常适用于背景信息少的图像,尤其是数字识别的,像银行卡那种的,对彩色图像效果会弱一点。
最后是这学期其中一点成果,集成了五种攻击算法,同时实现了对抗样本的检测,并在网页上显示,下一步继续做的话就是在线训练,在线优化提高模型鲁棒性,还有就是能不能设计一套多级联合防御框架,包括完全防御和检测防御,尤其在检测防御这块很有研究价值,检测出来后怎样进行下一步的处理。
赞
踩
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。