赞
踩
论文名称 | Data Poisoning Attacks Against Federated Learning Systems |
---|---|
作者 | Vale Tolpegin, Stacey Truex, Mehmet Emre Gursoy, Ling Liu |
来源 | ESORICS 2020 |
领域 | Machine Learning - Federal learning - Security - Defence – Targeted data poisoning attack |
问题 | 拜占庭弹性聚合方案在一定程度上可以防御数据投毒攻击,但尚不清楚是否存在有效的数据投毒攻击来规避单个或多个拜占庭弹性聚合方案 |
方法 | 从高维的更新向量提取相关参数,使用PCA进行降维后,检测恶意参数 |
创新 | 降维 |
1.思路:与诚实参与者的更新相比,恶意参与者的更新具有独特的特征。然而,DNN参数较多,需要手动分析参数更新
2.防御
(1)由于给定类的预测概率由DNN架构中最后一层决定,仅选取最后一层结点的参数,并添加到聚合器构建的全局列表U中。
(2)在多轮通信后,通过去除平均值并缩放到单位方差来标准化U
(3)标准化列表U0被输入主成分分析(PCA)
(4)为了便于可视化,绘制有两个组件的二维结果
针对有目标投毒攻击,攻击者的目标是在维持其他类的识别准确率的前提下,降低目标类的识别准确率。对此不由得思考:有目标攻击者的模型更新只是在特定维度上不可用,但非目标类的相关神经元仍具有可用性。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。