当前位置:   article > 正文

fedavg_关于联邦学习的公式

关于联邦学习的公式

联邦学习的核心是模型聚合算法,常用的有FedAvg(Federated Averaging)算法和FedProx(Federated Proximal)算法。其中,FedAvg算法是一种简单的平均算法,其数学公式如下:

wt+1=k=1Knknwk,t

其中,

$w_{t+1}$

表示第$t+1$轮的全局模型,

$w_{k,t}$

表示第$t$轮参与方$k$上传的本地模型,

$n_k$

表示参与方$k$的样本数量,$n$表示所有参与方的样本数量之和。

另外,FedProx算法是在FedAvg算法的基础上增加了正则化项,其数学公式如下:

wt+1=k=1Knkn(wk,tηfk(wk,t)+μ(wk,twt))

其中,$\eta$表示学习率,$\mu$表示正则化参数,$w_t$表示第$t$轮的全局模型,$\nabla f_k(w_{k,t})$表示参与方$k$在本地数据上的梯度。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/190587
推荐阅读
相关标签
  

闽ICP备14008679号