当前位置:   article > 正文

多方安全计算简介_多方安全计算能保证训练数据的隐私不被攻击吗

多方安全计算能保证训练数据的隐私不被攻击吗

  随着机器学习应用的快速发展,与之相关的数据安全与隐私问题受到更多关注。诸多厂商开始采用联邦学习技术来增强机器学习应用中对数据的隐私保护,但是联邦学习的安全性对于某些隐私保护机器学习的应用是不够的。事实上,为了防止模型复制它接收到的数据,数据本身是需要保密的,但同时需要使用该数据进行训练和预测。实现这个目标的一种方式是使用秘密共享式的多方安全计算,这种方法有着显著的优势但也一定程度上牺牲了效率。本文将介绍多方安全计算(MPC),并探讨它如何帮助我们实现输入隐私性。

  广义上说,MPC是多个参与方共同计算函数的一种方法,同时可以保持他们各自输入的隐私性。在机器学习的使用场景中,被计算的函数在训练阶段是模型的损失函数,或在预测阶段是模型本身。MPC往往有着很大的通信开销,但它的优点是,除非大部分的参与方是恶意勾结的,输入数据将始终保持私密性,即便敌手拥有无限时间和计算资源。基于秘密共享的多方安全计算不仅可以保护模型参数,也可以保护训练/预测数据的隐私性。

  机器学习即服务(Machine Learning as a Service)是MPC最重要的使用场景之一,它可以允许公司对外提供他们的模型,对客户发送的私人数据提供预测服务,同时确保最大程度的隐私性。例如,在医疗领域,云服务提供商可以在秘密共享的患者数据上运行训练好的分类模型,随后将秘密共享结果(如预测是否患有某种疾病的结果)返回给患者。

  另一个值得注意的应用是涉及非侵入性、保护隐私的安全性,也就是能够检测来自加密私有数据源的恶意活动的系统。这些系统可以比喻为数字数据源的嗅探犬。由于秘密共享机制的保护不会侵犯到任何人的隐私,并且准确性是可以通过经验验证的;同时,由于参数保持私密性,因此是不易被逆向工程求出的。关于这部分的使用场景可以参考这篇博客,它阐述了可使用同态加密来保护数据隐私的应用,基于秘密共享的MPC几乎可以做同样的事情。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/554973
推荐阅读
相关标签
  

闽ICP备14008679号