赞
踩
基于服务器端聚合方法优化的算法和基于客户端优化的算法。
[48] ARIVAZHAGAN M G, AGGARWAL V, SINGH A K, et al. Federated learning with personalization layers[J]. arXiv preprint arXiv:1912.00818, 2019
[42] HSU T M H, QI H, BROWN M. Measuring the effects of non-identical data distribution for federated visual classification[J]. arXiv preprint arXiv:1909.06335, 2019.
[43] REDDI S, CHARLES Z, ZAHEER M, et al. Adaptive federated optimization[J]. arXiv preprint arXiv:2003.00295, 2020.
[44] DUCHI J, HAZAN E, SINGER Y. Adaptive subgradient methods for online learning and stochastic optimization[J]. Journal of machine learning research, 2011, 12(7).
[45] KINGMA D P, BA J. Adam: A method for stochastic optimization[J]. arXiv preprint arXiv:1412.6980, 2014.
[46] ZAHEER M, REDDI S, SACHAN D, et al. Adaptive methods for nonconvex optimization[J]. Advances in neural information processing systems, 2018, 31.
文献[47][48]提出两种分层聚合的方式
[47] WANG H, YUROCHKIN M, SUN Y, et al. Federated learning with matched averaging[J]. arXiv preprint arXiv:2002.06440, 2020.
[48] ARIVAZHAGAN M G, AGGARWAL V, SINGH A K, et al. Federated learning with personalization layers[J]. arXiv preprint arXiv:1912.00818, 2019
[57] LI T, SAHU A K, ZAHEER M, et al. Federated ptimization in heterogeneous networks[J]. Proceedings of Machine Learning and Systems, 2020, 2: 429-450.
[49] ZHAO Y, LI M, LAI L, et al. Federated learning with non-iid data[J]. arXiv preprint arXiv:1806.00582, 2018.
[59] DENG Y, KAMANI M M, MAHDAVI M. Adaptive ersonalized federated learning[J]. arXiv preprint arXiv:2003.13461, 2020.
联邦平均算法
受数据不平衡影响大,不同客户端本地更新的同时无法了解其他客户端的更新信息,数据异构导致更新方向漂移
利用正则化可以约束本地模型更新方向
SCAFFOLD[60]
控制变量(方差减少)来纠正本地更新中的“客户端漂移问题”
利用客户间的相似性,降低通信成本
[60] KARIMIREDDY S P, KALE S, MOHRI M, et al. SCAFFOLD: Stochastic Controlled Averaging for On-Device Federated Learning[J]. 2019.
[61] LI T, HU S, BEIRAMI A, et al. Ditto: Fair and robust federated learning through personalization[C]//International Conference on Machine Learning. PMLR, 2021: 6357-6368.
[62] LI Q, HE B, SONG D. Model-contrastive federated learning[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021: 10713-10722
元学习往往以小样本学习和对任务的快速适应作为切入点
训练集:不同任务T(支持集S+查询集Q)
支持集S上参数优化:得到对应任务T train的中间参数模型
查询集Q:使用模型 计算损失函数L
最小化不同任务T train上损失函数值 训练一个基础模型
测试集:通过任务T val的支持集数据进行几步梯度下降 得到新模型
利用T val中的查询集Q测试模型表现
常采用一种显示的方式自动构建数据集,通过构建虚标签的方式,将无监督学习转换为监督学习
①分阶段训练算法 CACTUs[6]
在无标签训练数据上使用无监督训练方法学习一个特征表示器,通过聚类的方式在无标签数据上进行聚类划分,并生成伪标签
[6] HSU K, LEVINE S, FINN C. Unsupervised learning via meta-learning[J]. arXiv preprint arXiv:1810.02334, 2018
②端到端的自监督算法 UMTRA[7]
数据增强的方式为每个图片生成一个增强数据并将原数据作为支撑集,增强图片作为查询集,从而构建 N-way-1-shot 任务
[7] KHODADADEH S, BOLONI L, SHAH M. Unsupervised meta-learning for few-shot image classification[J]. Advances in neural information processing systems, 2019, 32.
基于优化器的方法
基于记忆存储的方法
基于基础泛化模型的方法
基于度量学习的方法
基于数据增强的方法
旨在通过学习一个更好的优化器加快学习过程。
文献[8]中提出使用一个 LSTM 的元学习者来学习一个更新规则,一种新的类似于但不同于梯度下降的优化算法
在[9]中
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。