赞
踩
隐私计算,广义上是指面向隐私保护的计算系统与技术,涵盖数据的产生、存储、计算、应用、销毁等信息流程全过程,想要达成的效果是使数据在各个环节中 “可用不可见”。目前最先落地于金融、医疗等行业。
从技术角度出发,和隐私计算相关联的概念很多——多方安全计算(MPC)、可信硬件(TEE)、联邦学习、差分隐私、区块链等。目前业内采用的主流技术包括三类:多方安全计算(MPC)、联邦学习和可信执行环境(TEE)。
当前实现隐私计算的技术主要可分为可信计算和密码学两大方向。
多方安全计算(Secure Multi-Party Computation,简称MPC)是指在无可信第三方情况下,通过多方共同参与,安全地完成某种协同计算。即在一个分布式环境中,多个参与者共同完成对某个函数的计算,该函数的输入信息分别由这些参与者提供,且每个参与者的输入信息是保密的,在计算结束后,各参与者获得正确的计算结果,但无法获知其他参与者的输入信息。这种方式主要基于密码学的一些隐私技术,相关概念还包括同态加密(Homomorpgic Encryption)、不经意传输(Oblivious Transfer)、混淆电路(Garbled Circuit)和秘密共享(Secret Sharing)等。
核心在于计算参与方在数据加密状态下进行计算。彼此不知对方数据,却能得到正确的计算结果。
联邦机器学习(Federated machine learning/Federated Learning),又名联邦学习,联合学习、联盟学习。联邦机器学习是一个机器学习框架,能帮助多个机构在满足用户隐私保护、数据安全和政府法规的要求下,进行数据使用和机器学习建模。有观点认为,基于多方数据进行联合建模,各自原始数据不对外输出,由中心方进行协调的建模,都可称为联邦学习。
联邦学习的系统架构大致分为横向联邦学习、纵向联邦学习、迁移学习三类,分别对应不同数据集的差异情况。
核心:“数据不出门,算法满地跑”
以上两种方式主要是在软件和算法层面实现隐私计算。可信执行环境(TEE)则基于硬件实现。
这种方式的思路是在CPU 上构建一块安全区域,这块区域的作用是给数据和代码的执行提供一个更安全的空间,在这个安全区域内进行相关的计算。比较有代表性的是Intel-SGX、ARM-TrustZone等。
这三种方式在安全性、工程能力和落地场景等方面存在不同的特点,我们可以通过下文这张对比图,了解不同技术思路的优劣势。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。