人工智能安全-12-3-隐私计算架构.ppt

  1. 1、本文档共16页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

*人工智能安全

--隐私计算架构提纲安全多方计算联邦计算安全多方计算SMC安全多方计算是研究拥有私有数据的多个参与者能够合作利用这些私有数据进行计算,同时又不泄露各自私有数据的计算问题,是目前密码学界研究的热点问题。众多分布环境下基于隐私保护的数据挖掘应用都可以抽象为无信任第三方(TrustedThirdParty)参与的SMC问题,即怎样使两个或多个站点通过某种协议完成计算后,每一方都只知道自己的输入数据和所有数据计算后的最终结果。一个经典的例子经典问题:百万富翁问题两个百万富翁A和B想知道他们两个谁更富有,但他们都不想让对方知道自己财富a,b的任何信息。例2:Alice和Bob必威体育官网网址的输入自己的数据,在第三方Trent参与下确定,交点坐标计算结束后,Alice和Bob除了知道交点坐标外,不能知道对方其他任何信息,Trent也得不到关于Alice和Bob的信息。是Pailler同态加密方案运用于机器学习场景安全多方计算完成了一个函数y=f(x)计算,其中,x是一组数据,分别来自不同参与方。y是各参与方预期得到的结果。当把这样的思路运用于机器学习场景时,可以做这样的对应,即:x是各参与方的训练数据,y是最终的机器学习模型参数。这样,各个参与方就不要把原始的训练数据共享给对方,就可以得到最终的模型参数。从例子也可以看出,安全多方计算存在的一些问题(1)通信开销过大,A方需要把加密后的训练数据都传给B方,B方法需要把加密的模型参数传递给A方。(2)同态加密的局限性带来的问题:同态加密算法只支持整数类型的数据,而机器学习中的数据和参数通常是浮点数的形式;全同态加密不支持非线性运算,只能通过近似函数逼近等。(3)恶意敌手的存在,共谋问题是否能解决。提纲安全多方计算联邦计算由于计算成本、传输成本、数据安全、数据权属等原因,存在大量数据孤岛,造成数据资源浪费,没有真正发挥大数据在机器学习挖掘的作用。在这种背景下,出现了联邦计算。联邦计算是一种分布式计算,目的是在保证数据隐私安全及合法合规的前提下,实现分布式机器学习,因此,也称为联邦学习。主要特征是:(1)各方数据都保留在本地,不泄露隐私,不违反法规。(2)多个参与方联合建立共有模型,在建模过程中,不同机构之间、云和端之间进行沟通交流。(3)最终学习到的模型的效果与所有数据放在一起学习的效果相当。纵向联邦学习适用于参与方训练样本唯一属性值重叠较多,而数据特征重叠较少的情况。从技术角度看,联邦计算综合运用分布式技术、机器学习及密码学,在各参与方的明文数据不离开本地的情况下,通过安全的算法协议实现多方共同进行模型训练、预测和推理,充分利用各方所拥有的数据,克服数据孤岛所带来的问题,提升AI模型的效果。与差分隐私等的关系从数据尚未从设备移出的意义上讲,这可以保护隐私。但是,仍然存在一个局限性:有时可以从权重更新或模型改进中推断出本地数据的内容。尽管个别客户无法重建样本,但“诚实但好奇”的服务器可以。为了防止从数据推断个人特征的可能性,可以采用其他技术,例如差分隐私或加密计算。在差分隐私中,数据通常是由可信第三方进行加噪声来实现隐私。在联邦学习中,服务器作为DP机制的可信任实现者,确保隐私输出。*

文档评论(0)

弹弹 + 关注
实名认证
内容提供者

人力资源管理师、教师资格证持证人

该用户很懒,什么也没介绍

版权声明书
用户编号:6152114224000010
领域认证该用户于2024年03月13日上传了人力资源管理师、教师资格证

1亿VIP精品文档

相关文档