当前位置:   article > 正文

安全多方计算之十:联邦学习与安全多方计算

联邦学习与安全多方计算

1. 联邦学习

联邦学习(FL,Federated Learning)是谷歌于2016年提出的一种分布式机器学习框架,可以在保护个人数据隐私的前提下,联合多方用户的数据实现模型训练

联邦学习用于解决“数据孤岛”问题,核心思想是“数据不动模型动,数据可用不可见”。

  • 传统机器学习中,数据需集中在一起进行模型训练,这样会暴露个人隐私,且数据共享也面临信任问题。
  • 联邦学习中,数据被分散在多个地方,每个地方的数据在本地进行处理形成本地模型,本地模型通过联邦学习算法进行汇聚和更新,最终得到一个全局模型。这样既保护了隐私,同时也避免了数据共享的信任问题。

联邦学习的应用场景非常广泛,如医疗领域,由于涉及到患者的隐私数据,传统的中心化机器学习方法难以实现,而联邦学习可以实现不同医院之间模型的共享和更新,从而提高诊断和治疗的准确性和效率;金融领域,联邦学习可用于风险控制、欺诈检测等,提高金融机构的业务效率和风险管理能力;智能物联网领域,联邦学习可用于实现不同设备之间的智能交互和协作,提高智能物联网系统的性能和可靠性。

2. 安全多方计算

安全多方计算(SMC,Secure Multi-party Computation)由由中国计算机科学家、2000年图灵奖获得者姚启智教授于1982年在论文《Protocols for secure computations》中以百万富翁问题(两个百万富翁Alice和Bob想知道他们两个谁更富有,但他们都不想让对方及其他第三方知道自己财富的任何信息),开创了密码学研究的新领域。

安全多方计算定义:是指在一个互不信任的多用户网络中, n n n个参与者 P 1 , P 2 , . . . , P n P_1,P_2,...,P_n P1,P2,...,Pn,每个持有秘密数据 x i x_i xi,希望共同计算出函数 f ( x 1 , x 2 , . . . , x n ) = ( y 1 , y 2 , . . . , y n ) f(x_1,x_2,...,x_n)=(y_1,y_2,...,y_n) f(x1,x2,...,xn)=(y1,y2,...,yn) P i P_i Pi仅得到结果 y i y_i yi,并且不泄露 x i x_i xi给其他参与者。

安全多方计算同样广泛应用于政务、医疗、金融、交通等各个领域中保护隐私的数据统计、数据分析、数据挖掘。如用户画像要从多个数据源中获取用户的身份、属性、行为、关系等各类数据,并进行群体的分析挖掘。但在数据的获取与计算过程中会导致用户隐私泄露,可使用安全多方计算技术,在保护隐私的情况下,对数据进行分析计算。

3. 联系与区别

(1)联系

联邦学习和安全多方计算都是解决数据隐私保护问题的技术,有以下共同点:

  • 都是在多个参与方之间进行数据计算和交互
  • 都是在不共享原始数据的情况下进行数据计算
  • 都需要使用加密算法和协议来保障数据安全性

(2)区别

  • 目的不同。联邦学习的目的是使用多方数据进行模型训练,从而提高模型的准确性和性能;安全多方计算的目的是在多个参与方之间进行数据计算,共同得出结果。
  • 数据处理方式不同。联邦学习中,各方将自己的本地模型参数上传进行聚合,从而得到全局模型;安全多方计算中,数据计算是通过密文交互实现的。
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小惠珠哦/article/detail/911793
推荐阅读
相关标签
  

闽ICP备14008679号