赞
踩
FedASMU: Efficient Asynchronous Federated Learning with Dynamic Staleness-Aware Model Update,Proceedings of the AAAI Conference on Artificial Intelligence,2024-03-24(23年10月挂在 arXiv),ccfa
) -> 考虑(历史数据和当前的模型状态),利用 RL 实现申请全局模型的最佳时间点的选择 -> 提升模型的准确率,减少训练时间
) -> 提升模型的准确率,减少训练时间
最小化所有设备上本地损失函数 Fi(w) 平均值,得到最优的全局模型w
Server 以恒定的时间周期 T 触发 m 个设备进行局部训练。初始的全局模型版本为 0 ,在每个全局轮次完成之后,版本加 1:
将
问题拆解成双层优化问题:
全局优化目标:通过动态调整每个客户端上传模型的重要性权重,找到一组能够使全局损失函数
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。