赞
踩
本文提出了一种基于公平性的联邦学习激励机制(FedFAIM)。
该机制满足两种公平性:
该工作考虑横向联邦学习(Horizontal Federated Learning,HFL)情境,该FL系统由两个主要参与方组成:参与方(数据持有者)和FL服务器。该工作将N个参与方的集合表示为 W = { 1 , 2 , . . . , N } W=\{1,2,...,N\} W={1,2,...,N},并将属于参与方i的私有数据集表示为 D i D_i Di。在FL系统中,模型通过多次迭代来训练。在每轮t中,工作通过为每个参与者分配不同的聚合梯度来代替向传统FL系统中直接从服务器下载全局模型的操作。
每个参与方i根据其本地训练数据优化分配的模型,并将本地梯度 u i ( t ) u^{(t)}_i ui(t)发送到FL服务器,在收集到所有本地更新 { u i ( t ) } i = 1 N \{u^{(t)}_i\}^N_{i=1} {ui(t)}i=1N,服务器将它们聚合成全局梯度 u G ( t ) u^{(t)}_G uG(t)。然后,评估每个参与方的贡献,并基于奖励机制为每个参与方i分配定制的聚合梯度 u ∗ i ( t ) u^{(t)}_{*i} u∗i(t)。
该训练过程重复进行,直到模型收敛。这种更新后的FL训练过程使得参与方依据其贡献度不同而获取不同的模型。
该工作提出的FedFAIM实现在FL服务器上,对参与方公开可见,因此该设计可以很容易地被应用于现有的FL系统。FedFAIM增强的HFL系统包括三个主要模块:梯度聚合(GA)、贡献评估(CA)和奖励分配(RA)。
GA包括两个子模块:质量检测和聚合权重计算。
RA中也有两个子模块,即声誉计算和奖励计算。
工作流程如下:
筛选掉低质量模型直观的方法是判断本地模型的损失是否超过给定的损失阈值。然而,随着本地模型在更多的训练迭代中性能的提高,这个阈值需要不断减小,因此难以确定。为解决这个问题,该工作采用了边际损失度量。
在第t轮,该工作使用
M
G
(
t
)
\mathcal{M}^{(t)}_G
MG(t)表示通过聚合所有参与方的本地模型获得的全局模型,
M
−
i
(
t
)
M^{(t)}_{-i}
M−i(t)表示通过聚合除i之外所有参与方的本地模型获得的全局模型。由于该工作此时不知道他们本地模型质量,因此这里的聚合权重是
1
N
\frac{1}{N}
N1,聚合公式如下:
M
G
(
t
)
=
M
G
(
t
)
+
1
N
∑
j
u
j
(
t
)
,
M
−
i
(
t
)
=
M
G
(
t
)
+
1
N
−
1
∑
j
∈
W
−
{
i
}
u
j
(
t
)
,
\mathcal{M}^{(t)}_G=\mathcal{M}^{(t)}_G+\frac{1}{N}\sum_ju^{(t)}_j, \newline \mathcal{M}^{(t)}_{-i}=\mathcal{M}^{(t)}_G+\frac{1}{N-1}\sum_{j\in W-\{i\}}u^{(t)}_j,
MG(t)=MG(t)+N1j∑uj(t),M−i(t)=MG(t)+N−11j∈W−{i}∑uj(t),
设
l
(
t
)
l^{(t)}
l(t)和
l
−
i
(
t
)
l^{(t)}_{-i}
l−i(t)分别表示
M
G
(
t
)
\mathcal{M}^{(t)}_G
MG(t)和
M
−
i
(
t
)
\mathcal{M}^{(t)}_{-i}
M−i(t)在验证集的损失。参与方i的边际损失定义为:
δ
i
(
t
)
=
l
−
i
(
t
)
−
l
(
t
)
\delta_i^{(t)}=l^{(t)}_{-i}-l^{(t)}
δi(t)=l−i(t)−l(t)
当较高质量的本地模型被聚合时,全局模型的损失将降低。该工作使用
δ
\delta
δ表示质量阈值,并在
δ
i
(
t
)
≥
δ
\delta_i^{(t)}\ge\delta
δi(t)≥δ时接受参与方i的本地模型(代表该模型对于全局模型的贡献比较大)。当阈值
δ
\delta
δ变化时,该工作在聚合模型上评估测试准确度。最后,该工作使用
Q
(
t
)
Q^{(t)}
Q(t)记录在第t轮中通过质量检测的参与方集合。另外,该工作使用
n
i
p
a
s
s
n^{pass}_i
nipass和
n
i
f
a
i
l
n^{fail}_i
nifail分别表示参与方i通过和为通过质量检测的次数。
在每一轮t中,通过质量检测的本地梯度被用于获得更新的全局梯度。这方面广泛采用的方法是FedAvg,聚合步骤如下:
u
G
(
t
)
=
∑
i
∣
D
i
∣
u
i
(
t
)
∑
i
∣
D
i
∣
u_G^{(t)}=\sum_i\frac{|D_i|u_i^{(t)}}{\sum_i|D_i|}
uG(t)=i∑∑i∣Di∣∣Di∣ui(t)
∣
D
i
∣
|D_i|
∣Di∣指的是参与方i用于训练本地模型的数据量。
然而,FedAvg在以下情况下可能不起作用:(1)某个参与方有大量但质量较低的数据。根据FedAvg,因为其数据量大而可以获得相对较大的权重,这对于一个数据质量好但数据量较少的参与方来说是不公平的。(2)存在一些恶意参与方。恶意参与方可以伪造数据量大小。根据FedAvg,这些参与方可能直接影响模型聚合中的权重。
为了克服FedAvg的缺点,FedFAIM考虑了数据质量来聚合本地模型更新。该工作使用
m
i
(
t
)
m_i^{(t)}
mi(t)来表示第t轮中参与方i的数据质量,
m
i
(
t
)
m_i^{(t)}
mi(t)根据其边际损失计算出来的。直观上,边际损失较大的本地梯度应该获得较高的权重。因此,在每轮t中,该工作使用带有控制参数
γ
\gamma
γ的指数函数来确定每个参与方
i
i
i的数据质量,公式4.4如下:
m
i
(
t
)
=
e
x
p
(
γ
δ
i
(
t
)
)
∑
i
e
x
p
(
γ
δ
i
(
t
)
)
m_i^{(t)} = \frac{exp(\gamma \delta_i^{(t)})}{\sum_i exp(\gamma \delta_i^{(t)})}
mi(t)=∑iexp(γδi(t))exp(γδi(t))
为了实现聚合公平性,FedFAIM通过考虑每个参与方i的本地数据质量来确定第t轮中参与方i的聚合权重
α
i
(
t
)
\alpha_i^{(t)}
αi(t),公式4.5具体如下:
α
i
(
t
)
=
m
i
(
t
)
∑
i
m
i
(
t
)
\alpha_i^{(t)}=\frac{m_i^{(t)}}{\sum_i m_i^{(t)}}
αi(t)=∑imi(t)mi(t)
最后,FedFAIM在第t轮中按如下方式将选定的本地梯度聚合到全局模型中,公式4.6如下:
u
G
(
t
)
=
∑
i
α
i
(
t
)
u
i
(
t
)
u_G^{(t)}=\sum_i \alpha_i^{(t)} u_i^{(t)}
uG(t)=i∑αi(t)ui(t)
由于FedFAIM通过质量检测筛选掉潜在的低质量梯度,所有被选中的本地梯度都被认为是有价值的。对应所有选中本地梯度的聚合梯度
u
N
u_N
uN期望具有最高的价值。因此,可以利用本地梯度和
u
N
u_N
uN之间的余弦相似度来近似它们的估值函数,公式4.8如下:
V
(
i
)
=
∣
∣
u
i
(
t
)
∣
∣
c
o
s
(
u
i
(
t
)
,
u
G
(
t
)
)
V(i)=||u_i^{(t)}||cos(u_i^{(t)},u_G^{(t)})
V(i)=∣∣ui(t)∣∣cos(ui(t),uG(t))
然后,按如下方式计算边际估值函数:
根据公式(4.9)中,可以得出
V
(
S
∪
i
)
−
V
(
s
)
V(S\cup i)-V(s)
V(S∪i)−V(s)不会随着集合S的内容而改变。因此,不需要遍历S的所有可能子集。结合公式(4.7)和公式(4.9),可以通过如下方式来计算参与方i在第t轮的贡献值
ϕ
i
(
t
)
\phi_i^{(t)}
ϕi(t)
声誉是一种基于过去的行为来衡量参与方在当前活动中的可靠性或信誉度的常用指标。该指标可以平滑参与方行为中的波动,以建立更客观的行为模式。
该工作根据参与方在从第1轮到第t轮中的贡献和通过质量检测的次数来计算每个参与者
i
i
i的声誉。设
c
i
(
t
)
c_i^{(t)}
ci(t)表示参与方i从第1轮到第t轮的累积贡献,公式如4.11所示:
c
i
(
t
)
=
m
a
x
(
0
,
∑
i
=
1
t
ϕ
i
(
t
)
)
c_i^{(t)} = max(0,\sum_{i=1}^t \phi_i^{(t)})
ci(t)=max(0,i=1∑tϕi(t))
基于当前轮
t
t
t中观察到的最大贡献来定义
i
i
i的相对贡献
z
i
(
t
)
z_i^{(t)}
zi(t)
c
i
(
t
)
=
c
i
(
t
)
m
a
x
i
(
c
i
(
t
)
)
c_i^{(t)}=\frac{c_i^{(t)}}{max_i(c_i^{(t)})}
ci(t)=maxi(ci(t))ci(t)
然后,考虑如何反映质量检测对声誉的影响。该工作使用Gompertz函数来反映质量检测对声誉的影响,因为该函数更适当地模拟了个体之间的信任,定义如下:
其中
a
a
a指定了上限渐近线,
b
b
b控制x轴上的位移,
c
c
c调整函数的增长率。函数的输出,记为
q
i
(
t
)
q_i^{(t)}
qi(t),是0和1之间的数字,表示质量检测的影响。
Gompertz函数的输入,记为
x
i
(
t
)
x_i^{(t)}
xi(t),考虑了每个参与方i的历史质量检测结果。为了确保声誉
q
i
q_i
qi的范围为[0,1],设置a=1,b= -1,c= -5.5。函数的图像如图4.2所示:
x
i
x_i
xi应考虑通过/未通过质量检测的次数,按如下公式计算
x
i
(
t
)
x_i^{(t)}
xi(t):
结合公式4.12和公式4.13,可以得到参与方i在t轮中声誉
r
i
(
t
)
∈
(
0
,
1
]
r_i^{(t)}\in(0,1]
ri(t)∈(0,1],如公式4.15所示
r
i
(
t
)
=
q
i
(
t
)
z
i
(
t
)
r_i^{(t)}=q_i^{(t)}z_i^{(t)}
ri(t)=qi(t)zi(t)
为了设计一个公平的奖励分配方案,参与方应该得到一个反映其声誉的模型版本作为奖励。该工作的想法是通过将聚合模型中的重要梯度数量分配给参与方来控制模型的性能。因此,FedFAIM奖励分配模块包括两个步骤:1)基于参与者的声誉确定分配给每个参与者的梯度数量 n u m i ( t ) num_i^{(t)} numi(t) 2)从全局梯度向量 u G ( t ) u_G^{(t)} uG(t)中选择 n u m i ( t ) num_i^{(t)} numi(t)个重要梯度。
数据集:
该工作提出了第一个满足聚合公平性和奖励公平性的联邦学习非金钱激励机制一FedFAIM,以激励存在竞争关系的参与方参加联邦学习训练。首先,FedFAIM采用梯度边际损失来检测各个参与方本地的数据质量,并基于质量进行模型聚合以实现聚合公平性。而后,FedFAIM采用Shapley值的近似算法评估各个参与方的贡献,并基于贡献以及参与方的本地数据质量计算参与方的声誉。最后,FedFAIM基于参与方的声誉以及梯度分布给每个参与方分配一个定制化的模型,以实现奖励公平性。此外,该工作证明了奖励公平性可以在理论上得到保证。大量的实验表明,与类似的联邦学习非金钱激励机制相比,FedFAIM在保证公平性的同时,进一步提高了参与方获得的模型精度。
搬运论文出处:面向数据交易供给侧的激励机制研究。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。