赞
踩
目标:个性化模型和有效的全局模型:目标是为每个客户端$i$学习一个个性化模型 ,这个模型不仅在第i个客户端的本地数据分布上表现良好,而且能够被聚合成一个在所有数据类别上都表现良好的全局模型 。
总结来说,这一部分介绍了如何在图像分类任务中通过特征提取器和分类器生成超知识,以及如何在联邦学习环境中评估和使用这些超知识。超知识包括类别的平均潜在表示和平均软预测,这些信息在客户端和服务器之间共享以改善模型的个性化和全局泛化能力。同时,还引入了一个阈值来决定是否共享超知识,以处理数据异质性带来的挑战。
全局超知识的应用:
客户端的损失函数:
损失函数的意义:
总体而言,这部分描述了在FedHKD框架下,如何通过全局模型的初始化和更新、本地训练目标的设定,以及客户端间的模型和超知识交换,来实现有效的联邦学习。这种方法不仅强调了模型在本地数据上的性能,也利用全局超知识来增强模型对整体数据分布的适应性。
Figure 4 展示了客户端如何计算本地超知识。在本地训练结束时,每个参与的客户端都获得了一个经过微调的本地模型,该模型包括特征提取器 $R_{φ(·)}$ 和分类器 $G_{ω(·)}$。对于客户端 k 的类别 j,获取本地超知识的过程分为三个步骤:
简而言之,该过程通过特征提取器和分类器的配合,对每个类别的数据样本进行深度分析,以生成本地超知识,这包括数据表示的噪声平均值和软预测的平均值,这些信息随后用于联邦学习中的知识共享和模型改进。
我们提出了一种新的FL算法FedHKD,该算法依赖于知识蒸馏,能够在数据异构设置下有效地学习个性化和全局模型;FedHKD既不需要公共数据集也不需要生成模型,因此在不需要大量资源的情况下解决了数据异构的挑战。通过引入和利用“超知识”的概念,即由数据表示方法和相应的软预测方法组成的信息,FedHKD使客户端能够训练在本地表现良好的个性化模型,同时允许服务器聚合一个在所有数据类中表现良好的全局模型。为了解决隐私问题,FedHKD部署了一种不同的隐私机制。我们在多个基准数据集上进行了多种设置下的大量实验,并对FedHKD的收敛性进行了理论分析。实验结果表明,FedHKD在提高训练时间的同时,在局部和全局精度方面都优于最先进的联邦学习方案
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。