赞
踩
联邦学习可以解决数据孤岛问题,相应的FL平台也应运而生。但是由于联邦学习的异质性,已有平台不能达到良好的效果。FL中的异质性主要包括五个方面:
1) Heterogeneity in Local
Data。不同公司或者边缘设备生成的数据存在着质量、数量、标签和分布不同的情况,通过相同的局部训练生成一个全局模型是不现实的。
2) Heterogeneity in Participants’
Resources。参与者的资源可能存在差异,如计算资源、存储资源、通信带宽、可靠性等。虽然现有的FL平台提供同步训练协议,但是会出现云服务器受到网络拥塞、本地训练缓慢、甚至设备崩溃所造成的延迟的问题。因此,异步训练协议是较好的选择。
3) Heterogeneity in Participants’
Behaviors。实际FL应用程序需要参与者之间交换各种类型的信息,由于处理不同的交换信息或不同的训练过程所导致的参与者行为的异质性,促使FL平台支持灵活表达参与者丰富的行为。
4) Heterogeneity in Privacy Protection
Strengths。为了满足不同级别的保护要求,将各种隐私保护技术集成到联邦学习中,如差分隐私(DP)、同态加密(HE)和安全多方计算(MPC)。然而,这些隐私保护技术消耗额外的计算资源。因此,考虑隐私保护与学习效果/效率之间的权衡,每个客户都有权根据自己现有的资源和偏好的保护来调整自己的隐私保护力度。
5) Heterogeneity in Learning
Goals。为了处理学习目标的异质性,FL平台应该允许参与者以不同的学习目标进行局部训练,并定制局部学习模型共享的部分。
为解决上述问题,本文提出了以下方法:
server表示负责协调和聚合的参与者,而其他参与者是clients。FL的训练过程是客户端在本地更新接收到的全局模型,并反馈给服务器进行协同优化,服务器和客户端之间有信息交换,如模型参数、公钥、超参数等。FL的损失函数为:
个性化算法类型包括:应用客户定制的训练配置,如超参数;用定制子模块集成全局模型;定制客户训练行为,如规范化、多模型交互等;改变服务器的聚合行为,如模型插值。
提供了各种联邦聚合算法,如FedOpt、FedNova、FedProx等,引入了新的交换消息类型,并改变了服务器和客户机的行为。将这些联邦聚合算法实现为插件,通过在配置中指定插件来使用。
预置各种原子模块作为插件来支持差分隐私(DP)算法,如噪声注入、权重/梯度剪切等。这些模块可以通过配置来打开/关闭,开发人员可以将不同的模块结合合适的超参数来实现某种DP算法。
根据攻击者目标的类型,典型攻击包括成员推断攻击、属性推断攻击、类代表攻击和训练数据/标签推断攻击。可以将隐私攻击根据攻击者的行为分为被动攻击和主动攻击。FederatedScope中提供了最先进的隐私攻击算法的实现:(i)隶属关系推断攻击:梯度反演攻击(主动攻击);(ii)属性推断攻击(被动攻击);(iii)类代表攻击:DMU-GAN(主动攻击);(iv)训练数据/标签推断攻击(被动攻击)。
除了基本的超参数优化(HPO)方法外,FederatedScope中加入了低保真HPO策略。
为减轻优化超参数的工作量,系统提供内置的基本HPO方法,如网格搜索,随机搜索,高斯过程等。为了平衡调优过程中的有效性和效率,提供了Hyperband和PBT来利用低保真策略,只需执行几轮或降低客户端采样率即可实现,使FL算法在实践中可以实现HPO。提供了最新的联邦HPO方法FedEx的实现,参数化一个策略来采样超参数配置。
为了简化定制算法的手动调优,提供了许多本地更新和本地评估的指标,包括训练/验证/测试损失和精度。建立了更全面的评估方法和指标。数据集和主干模型统一在DataZoo和ModelZoo中,同时还提供了一些针对个性化FL的评价指标。
通信模块由信息和通信器组成。因为异构消息是在服务器和客户端交互,使用TYPE来区分不同类型的消息。此外,如图2所示,在消息中记录SENDER和RECEIVER用于跟踪和验证,PAYLOAD表示所包含的用于交换的信息。
通信器由服务器和客户端托管,用于相互交换消息。从服务器和客户机的角度来看,通信器充当黑箱,因为它只向服务器和客户机公开高级接口,如SEND和RECEIVE,而隐藏通信后端的细节。在通信器的支持下,能够为FL课程的独立模式(通过模拟通信器)和分布式模式(通过基于gRPC或其他协议的通信器)提供统一的接口。
客户端只需要使用训练器公开的高级接口,如TRAIN和EVALUATE,进行局部训练并得到结果,而不需要考虑训练器内部定义的详细的训练行为,这有助于将参与者的训练行为和联合行为解耦。服务器的聚合器以客户的反馈作为输入(如更新的模型和训练数据的统计数据),输出聚合后的数据。
用户可以首先抽象参与者之间交换的消息类型,然后将服务器和客户端的行为转化为处理函数作为子例程来处理接收到的不同类型的消息。如图3所示,在使用FederatedScope时,要执行普通的FedAvg,服务器需要处理两种类型的消息,即处理join以允许新客户端加入FL课程,以及处理更新的模型以执行聚合。对于客户端来说,他们应该在本地数据上训练模型,并在从服务器接收模型时返回反馈(如更新的模型)。定义了这些消息类型和处理程序之后,发送join到服务器的客户端可以触发FL过程。
从各种FL应用场景中收集和预处理广泛使用的数据集,如表1所示,为DataZoo中提供的数据集提供统一的数据加载器,允许开发人员通过配置自动下载、预处理和获取数据。
提供了ModelZoo来统一FL应用中使用的骨干模型,其中包括广泛使用的模型体系结构,如用于计算机视觉任务的ConvNet和VGG,用于自然语言处理任务的LSTM,以及用于图学习的GNNs、GraphSAGE和GPR-GNN。允许开发人员像在集中训练中一样定制新的模型架构或训练配置。
基准测试结果见表2,根据文献选择建议的模型,例如:FEMNIST使用ConvNet2模型,Ciao使用GCN模型。此外,采用了不同的FL算法进行比较,如FedAvg、FedOpt和FedProx。结果表明,不同的模糊推理算法适用于不同的模糊推理应用,可能与数据的类型、数据分布的异质性、采用的模型的归纳偏差、抽样的客户端数量等有关,这些在联邦学习中仍然是一个有待解决的问题。
提供了内置PFL算法的经验评估,包括FedBN, pFedMe, Ditto和FedEM。实验结果如表3所示。PFL算法在一些数据集上可以带来显著的改进,如FEMNIST和MultiTask。然而,采用的个性化FL算法有时会影响模型的性能。例如,当在莎士比亚上应用pFedMe时,与那些没有个性化的模型相比,模型性能下降6.43%。
评估提供的隐私保护模块的有效性,包括内置的DP算法和实现的隐私攻击者。差分隐私:隐私保护强度增大,学习模型的性能下降更明显,这说明共享的信息信息量更少。隐私攻击:采用DLG方法在FEMNIST上对FedAvg进行训练数据推理攻击,实现的隐私攻击者可以在一定程度上恢复结果。
采用连续二分算法(SHA)和随机搜索(RS)作为HPO调度器,评估了FederatedScope中提供的低保真HPO的有效性。在网络Cora上训练GCN模型,设置SHA的总训练轮数为81轮,样本大小分别为81、27和9,每次试验的训练轮数分别为1、3和9。可视化HPO过程显示给定分配的SHA优于所有RS设置。
[1] https://github.com/alibaba/FederatedScope
[2] https://federatedscope.io
[3] https://mp.weixin.qq.com/s/j-zi1rn9TX4xTRwgfKKCTA
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。