赞
踩
x 与 x0 在一定误差内,两者之间的loss 越大越好
对抗攻击是指利用计算机系统或人工智能模型的弱点,通过修改输入数据,使得系统产生错误的结果或分类,而这种修改又对人类观察者来说几乎是无法察觉的。对抗攻击的目的在于欺骗或误导机器学习模型,使其在处理经过微小修改的输入数据时产生错误的输出。
关键点:
攻击类型:
梯度攻击: 通过计算模型对输入数据的梯度,并对输入数据进行微小的修改,使模型产生错误的分类或预测。
白盒攻击: 攻击者完全了解目标模型的结构和参数。
黑盒攻击: 攻击者只有有限的关于目标模型的信息,但仍能生成对抗性示例。
应用领域:
图像分类: 对抗攻击常常展示在图像分类模型中。
自然语言处理: 对抗攻击也可应用于文本数据,影响情感分析或文本分类等任务中的模型。
防御机制:
对抗训练: 通过训练模型以抵抗对抗性示例可以提高其鲁棒性。
输入预处理: 对输入数据添加随机噪声或应用其他预处理技术可以增加对抗性示例的生成难度。
对抗性检测: 开发方法在运行时检测对抗性示例。
实际影响:
对抗攻击引发对机器学习系统安全性和可靠性的担忧,特别是在自动驾驶汽车、医学诊断和安全系统等关键应用中。
对抗攻击在现实世界中具有重要意义,因为它们揭示了机器学习模型的脆弱性。研究人员和从业者不断探索提高机器学习模型对对抗攻击的鲁棒性,并开发新的防御机制来减轻其影响。这需要持续的研究和发展更具韧性的机器学习算法。
部分学者认为
adversial attack 会成功不是bug, 而是原数据数据特征不够
注意网络上的公开资料集里
filter 把图片做稍微的模糊化
模糊化
压缩
generator, 用generator 生成一张与输入非常接近输入的照片
但是模糊化被别人知道后,很快就会失效。 别人在attack 时使用相同的模糊,就会失效
改进: 随机改变 任意改变大小,放在任意背景上
在训练时就加入
将生成的attack 样本的label 重新打成正确的标,形成新的数据集 ~~ data augamention 资料增强
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。