赞
踩
本文首发来源微信公众号:SEUUNiS
高水平论文阅读分享
An Efficient and Dynamic Privacy-Preserving Federated Learning System for Edge Computing
Xinyu Tang, Cheng Guo, Member, IEEE, Kim-Kwang Raymond Choo, Senior Member, IEEE, and Yining Liu
大家好,今天跟大家分享一篇来自IEEE Transactions on Information Forensics and Security(CCF-A)2024年的一篇文章—基于边缘计算的高效动态隐私保护联邦学习系统。
作者及实验室介绍
第一作者:Xinyu Tang
Xinyu Tang分别于2016年和2018年获得大连理工大学软件工程学士和硕士学位,目前正在攻读博士学位。他的研究方向包括密码学、私有数据保护技术和云存储技术,并已在相关领域发表了一些论文。他目前正在研究安全机器学习和安全多方计算。
通信作者:Kim-Kwang Raymond Choo
Kim-Kwang Raymond Choo(IEEE 高级会员)于 2006 年获得澳大利亚昆士兰科技大学信息安全博士学位。他目前担任德克萨斯大学圣安东尼奥分校的云技术终身教授。他是 IEEE 技术与工程管理学会区块链和分布式账本技术委员会(TC)的创始主席。
实验室介绍:
辽宁省泛在网络与服务软件重点实验室位于大连理工大学开发区校区软件学院,于2014年由辽宁省科技厅获批筹建。实验室是以泛在网络及其相关的服务软件为主要研究方向,整合目前国际最新的网络技术、计算技术并以普适的软件形式渗透到国民经济的各个方面。实验室下设五个研究室:传感网与智能感知技术研究室、异构网络融合技术研究室、数字内容智能处理研究室、高可信系统研究室、云计算与高端IT服务研究室。
介绍
01
联邦学习(FL)是一种分布式机器学习框架,允许用户使用本地数据集进行模型训练。对于参与节点,他们需要有充足的计算能力、网络带宽和存储能力。但是在联邦边缘学习(FEL)中,边缘设备资源相对有限。这些设备需要长时间运行并且能够不断更新其模型。他们仅在空闲时参与训练过程,并且可以随时退出该过程。因此,整个系统需要更高的灵活性、可扩展性,并支持低开销的长期模型训练和更新需求,以满足边缘设备的约束和需求。
同时,尽管联邦学习避免了参与者之间直接交换敏感数据,但交换明文参数仍然会带来隐私泄露的风险,现有的许多运用在联邦学习的隐私保护方案能确保传输参数的安全,但许多隐私保护方案可能带来大量额外的计算和通信开销,较难权衡隐私保护和效率的关系。
基于此,这篇文章为联邦边缘学习开发一种灵活、动态和低开销的隐私保护方案,以实现隐私与效率之间的平衡。
动机
02
1、每个边缘设备的状态互不知晓。确保数据隐私并非易事。
2、每个边缘设备的本地数据集具有不同的数据质量。因此,设计有效的边缘设备调度策略是一项挑战。
3、参与训练过程的设备集不是固定不变的,可能会随着设备的随时添加或移除而动态变化。
贡献
03
1、设计了一个动态灵活的联邦边缘学习系统,并根据边缘计算场景中系统架构和边缘设备的特点,提出了一种新的保护隐私的协同训练方案。它既可以有效支持边缘设备的快速变化,又能保护数据隐私。
2、由于边缘设备的动态性和异构性,文章提出了一种具有相对贡献水平的调度策略,以确保边缘设备之间的长期运行效率。这可以加速模型收敛并减少系统开销。
预备知识
04
Diffie-Helman秘钥协议
权重传输过程采用了Diffie-Helman秘钥协议。假设存在两个边缘设备1和2,首先边缘设备各自生成了公钥和私钥,然后边缘设备1与边缘设备2相互交换公钥,通过使用两个设备之间的对称密钥,边缘设备1将权重加密传给2,2解密后就得到权重。交换秘钥协议如图1所示。
图1 使用Diffie-Helman秘钥协议传输权重流程
边缘设备之间直接通信
本文将本地学习完成的边缘设备所获得的权重直接传输给下一轮设备,而不需要将权重传输给服务器,服务器在分发给下一个设备。这不仅减少了边缘设备与服务器的通信开销,还不需要将聚合中间的权重传输给服务器,只需将一轮聚合完成后的权重传给服务器即可。边缘设备之间通信如图2所示。
图2 边缘设备之间直接通信
Contribution Level
为了选择出对模型性能影响最大的设备,本文根据博弈论常用的评价指标:Shapely值,使用近似算法提出边缘设备的贡献值(Contribution Level)。CL的计算方式为:
其含义为:在本设备j训练完所得到的损失函数与之前所传来不包括j的损失函数之差。其中i代表边缘设备所连接的服务器,j代表当前的边缘设备,集合Q代表当前已经训练聚合完成的设备。
系统模型
05
图3 本文的系统模型图
A、系统初始化
在初始阶段,中心服务器将深度学习模型下发到边缘服务器,然后边缘服务器将模型分配到与服务器相连的边缘设备,并使用了标准传输层安全(TLS)等独立通信信道实时询问边缘设备是否在线。同时,每个边缘服务器为其范围内的边缘设备创建一个信息表,包括在线集OSeti、训练集TSeti、完成集CSeti和等待集WSeti,并存放边缘设备的IP地址和每个设备的相对贡献值,方便后面边缘设备的选择。每个边缘设备还要计算自己的公私钥,用于后面权重的加密传输。
B、本地训练
在训练阶段,每个边缘服务器首先随机选择OSeti中的边缘设备EDi,1作为第一次部分聚合迭代的第一个边缘设备,并允许EDi,1以初始权重开始局部训练。此外,ESi会将EDi,1添加到训练集TSeti中,并将其他OSeti中的边缘设备添加到WSeti中。
算法1显示了每个边缘服务器和边缘设备在训练阶段的过程。
步骤1:获取权重
为防止恶意边缘服务器收集私人数据,边缘设备通过Diffie-Hellman密钥交换协议协商直接通信。EDi, j接收从EDi, j-1发送的加密权重和公钥,然后,EDi, j使用对称密钥解密加密权重。
步骤 2:判断收敛性
为了判断接收到的权重是否收敛,EDi, j将本轮上一个设备传来的权重与自己本地更新的上一次部分聚合迭代的权重进行比较。如果权重收敛,EDi, j可以在向EDi, j+1发送模型权重后,向ESi发出退出信号。
步骤3:训练模型
若模型没有收敛,则EDi, j将继续使用获得的新权重训练本地权重。
步骤4:计算贡献度
通过引入Shapley 值来评估本地数据集对全局模型的贡献程度,以保持高效协作。贡献度由EDi, j计算,即
计算完成后,将ψi, j上传到ESi。
C、加密和传输权重
收到EDi, j的贡献值后,ESi将下一个边缘设备EDi, j+1分配给EDi, j。算法3显示了这一阶段的流程。
步骤 1:选择下一个边缘设备
根据相对贡献度,ESi从WSeti中选择EDi, j+1进行传输,并向EDi, j发送IPi, j+1。
步骤 2:协商对称密钥
边缘设备使用Diffie-Hellman密钥交换协议生成的共享密钥来保护传输加密权重的安全。
步骤 3:加密权重并传输权重
EDi, j加密权重并发送给EDi, j+1。
步骤4:计算新的选择概率
在每次部分聚合迭代结束时,ESi计算存储在CSeti中的边缘设备的相对贡献度 RCLi, j,并将其作为下一次迭代中被选中的概率。
D、设备动态退出
由于网络不稳定等原因,EDi, j可能随时退出。针对不同的设备退出情况,算法2进行以下几种分类讨论。
Case1:如果EDi, j属于WSeti,ESi会直接将其从WSeti中删除。
Case2:如果EDi, j在本地权重训练过程中退出,边缘服务器的具体处理过程如下:
Case2.1:
当TSeti不为空时。如果WSeti为空,则开始新的部分聚合迭代。如果WSeti不为空,ESi从WSeti中选择相对贡献度最高的EDi,m,ESi将IPi,m发送给TSeti中的最后一个在线边缘设备,该边缘设备再将权重发送给EDi,m。
Case2.2:
当TSeti为空时。如果WSeti为空,算法终止。如果WSeti不为空,ESi会根据OSeti中的相对贡献水平重新选择EDi,m,并将IPi,m发送给上一次部分聚合迭代中的最后一个在线边缘设备CSeti。最后一个在线边缘设备将权重重新传输给EDi,m。如果CSeti中没有在线边缘设备,则算法终止。
Case3:如果EDi, j在权重传输过程中掉线,边缘服务器的具体处理过程如下。
Case3.1:
当TSeti不为空时。如果下一个边缘设备EDi,j+1在线,则IPi, j+1由ESi发送给TSeti中的最后一个在线边缘设备。最后一个在线边缘设备再将权重发送给EDi,j+1。如果EDi, j+1离线且WSeti为空,则开始下一次部分聚合迭代。如果EDi, j+1不在线且WSeti不为空,则ESi从WSeti中选择相对贡献度最高的EDi,m。ESi将IPi,m发送给TSeti中最后一个在线边缘设备,该设备再将权重发送给EDi,m。
Case3.2:
当TSeti为空时。如果EDi, j+1在线,则IPi, j+1由ESi发送给上一次部分聚合迭代中的最后一个在线边缘设备CSeti。最后一个在线边缘设备将权重重新传输给EDi,j+1。如果EDi, j+1离线且WSeti为空,则开始下一次部分聚合迭代。如果EDi, j+1不在线且WSeti不为空,则ESi从WSeti中选择相对贡献度最高的EDi,m。ESi将IPi,m发送给CSeti中最后一个在线边缘设备,最后一个在线边缘设备再将权重发送给EDi,m。
Case4:如果EDi, j是已完成本地训练并传输权重的边缘设备,则EDi, j的退出对后续训练序列没有影响,因此ESi直接将其从TSeti中删除。
E、设备动态加入
算法4介绍了边缘设备动态加入。在整个交互过程中,ESi是一个长连接,即当EDi, j请求连接时,ESi会将其添加到OSeti中。
安全性分析
06
1、假设ES和其他ED是诚实但好奇的。在训练过程中,诚实但好奇的各方忠实地执行程序,不会与他人串通获取密钥。然而,他们试图通过观察记录来独立推断其他ED的私人数据。本文不考虑拦截数据并修改通信方之间的消息的主动对手这类情况。
2、考虑只有一个边缘设备EDi,j是诚实的,并且边缘服务器和其他边缘设备都被认为是恶意的。恶意方通过解密传输的加密数据来恢复诚实训练者的任何数据。
文章证明了在诚实但好奇的设置假设下,边缘设备无法获得除其前一设备的权重之外的任何参数信息,从而保证了参数隐私。同时,对于诚实的ED,对手集在协议执行过程中只能获得输入和输出权重以及相应的CL。因此,恶意对手无法恢复数据,从而保证数据安全。
实验
07
环境:
文章使用医学图像数据集MedMNIST测试了分类的准确性。假设有5个边缘设备,每个边缘设备保存一些图片,这些图片在随机刷新后被平均地随机划分到原始数据集中。每个边缘设备运行一个CNN程序。该模型使用学习率为0.0002的Adam优化器,迷你批量大小为128。每个ED局部训练10次迭代,并与100次部分聚合迭代交互。测试集的准确率图由每个ED在测试集上每迭代一次进行评估。
对比实验:
Efficient SecAgg通过结合屏蔽技术实现安全梯度聚合,并利用秘密共享来减轻设备丢失导致的聚合失败。但它只能处理有限数量的设备丢失,并且不支持实时设备加入,且对手的数量不能超过n/3。
A、分类精确性
图(a)-(c)表明,随着边缘设备dropout比例的增加,模型的分类准确率会不断下降。图(d)显示了随着ED数量的增加,即通过增加训练数据,模型分类的准确率可以得到提高。通过引入CL和基于权重的迭代训练,本文的方案实现了更快的收敛速度和更好的分类结果。
B、边缘设备性能分析
(1)计算开销
本文将模型训练的成本定义为必要的开销,将模型训练之外的成本定义为额外的开销。在ED侧,DH密钥交换的复杂度为O(1),而模型加解密的开销为O(m),其中m表示模型参数的数量。对于Efficient SecAgg,客户端计算复杂度为O(n2) + O(m)。从图5可以看出,本文方案中客户端的额外计算开销非常低,并且不受系统中设备数量变化的影响。在Efficient SecAgg中,由于需要根据设备数量进行秘密共享,并通过非对称加密传输共享份额,因此客户端的额外计算开销随着设备数量的增加而增加。
(2)通信开销
从图6看出,对于本文的方案ED的丢失/加入不会引起另一个ED传输的数据的变化。对于边缘设备来说,通信开销主要与模型大小有关。对于Efficient SecAgg来说,通信开销主要源自客户端之间传输加密的随机种子份额并将屏蔽梯度发送到服务器。
C、边缘服务器性能分析
(1)计算开销
在本文的方案中,ES负责根据边缘设备的训练条件来安排训练序列,因此ES只有维护边缘设备状态的成本。在Efficient SecAgg中,ES需要进行参数聚合、掩模恢复,并通过对数求解得到聚合结果。图7(a)~(c)显示了不同丢包率下边缘服务器的计算开销,本文的方案在效率方面具有明显的优势。图7(d)展示了随着更多设备的加入,ES需要维护的数据量增加,进而导致执行时间的增长。
(2)通信开销
表格显示了两个方案在不同dropout率下的一次迭代的ES通信开销的比较。由于没有梯度聚合,本文的方案的通信效率非常高。图8说明了设备参与对ES通信开销的影响,即设备越多,每轮接收到的CL值就越多,从而导致通信开销越高。不过,与权重传输的开销相比,这个变化并不大。
总结
08
本文设计了一种高效的联邦边缘学习框架,它能以最小的开销支持设备的实时加入和退出,同时确保数据安全并抵御恶意串通对手。因此,它能让边缘设备以较低的开销进行长期训练和模型更新。文章提出了一种边缘设备调度策略,以在不牺牲准确性的情况下改进FEL的训练时间。该方案方案能根据Shapley值公平地评估每个边缘设备对全局FL模型的贡献水平,并能更好地调动边缘设备。在异构边缘设备具有异构数据和资源的情况下,优先考虑对全局模型贡献最大的边缘设备可以加速模型收敛,提高模型的准确性。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。