赞
踩
hello,这是鑫鑫鑫的论文分享站,今天分享的文章是Regula Sub-rosa: Latent Backdoor Attacks on Deep Neural Networks,一篇关于后门攻击及防御的论文,一起来看看吧~
摘要:
在本文中,我们描述了后门攻击的一个更强大的变种,即潜在后门,其中隐藏的规则可以嵌入到单个“教师Teacher”模型中,并在迁移学习过程中被所有“学生Student”模型自动继承。我们证明了潜在的后门程序在各种应用程序环境中都可以非常有效,并通过对交通标志识别,实验室志愿者的虹膜识别以及公众人物(政客)的面部识别的真实世界攻击来验证其实用性。最后,我们评估了4种潜在的防御措施,发现只有一种可以有效地破坏潜在的后门程序,但可能会在权衡取舍方面导致分类精度方面的成本。
1.introduction
本文的贡献:
2.Background
2.1 DNN
后门是在训练时注入DNN模型的隐藏模式。注入的后门不会影响模型在纯净输入上的行为,但是会(且仅)在将特定触发器添加到输入时强制模型产生意外行为。例如,当将关联的触发器应用于这些输入时,后门模型会将任意输入错误分类为相同的目标标签。在视觉领域,触发器通常是图像上的小图案,例如贴纸。
2.2 迁移学习
迁移学习通过将预先训练的教师模型中嵌入的知识转移到新的学生模型中,从而解决了训练机器学习模型只能有限访问标记数据的挑战。该知识通常由模型架构和权重表示。转移学习使组织无需访问大量(培训)数据集或GPU集群,即可使用有限的培训数据快速构建针对其自身情况定制的准确模型[54]。
图1说明了迁移学习的高级过程。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。