查看原文
其他

【源头活水】一个具有隐私保护学习的图联邦架构



“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。

来源:知乎—antrn

地址:https://zhuanlan.zhihu.com/p/440809332

图结构的联邦(多server) 隐私保护学习

总结

联邦学习过程中反复交换估计可能泄露属于本地的信息,所以需要将算法私有化,当前的架构对通信故障和计算过载高度敏感。本文将联邦学习架构扩展到 GFL,提出多server的连邦学习,以图的形式组织服务器。
实验目标:逻辑回归二元问题。通过使用非随机扰动将算法私有化,使用差分隐私来量化算法的隐私,理论和实验结果表明,非随机扰动降低了添加噪声对模型效用的负面影响。

Abstract

联邦学习涉及到一个中央处理器,它与多个代理一起工作,以找到一个全局模型。该过程包括反复交换估计数,这导致了与本地私有数据有关的信息的传播。这种方案在处理敏感数据时可能不方便,因此,有必要将算法私有化。此外,连接到多个客户端的服务器的当前架构对服务器上的通信故障和计算过载非常敏感。因此,在本工作中,我们开发了一个专用的多服务器联邦学习方案,我们称之为图联邦学习。我们使用密码和差分隐私的概念来私有化联邦学习算法,并将其扩展到图结构。我们研究了私有化对学习算法的一般私有方案性能的影响。在凸性和利普希茨条件(Lipschitz conditions)下,私有化过程与非私有算法的性能相匹配,即使增加了噪声的方差。


01

INTRODUCTION
联邦学习(FL)[1]是近年来出现的一种功能强大的分布式学习算法,旨在寻找一个适合局部数据的全局模型。FL算法包括两个步骤:在每个客户端上在本地完成的更新步骤,以及在服务器上完成的聚合步骤。在这两个步骤中,客户端和一台服务器之间会进行通信。不幸的是,这种结构并不健壮,因为它依赖于一台服务器来执行所有的通信和聚合。[2]提出了一种引入分层联邦学习的解决方案;该架构由一个云服务器连接到多个边缘服务器,这些边缘服务器又连接到多个客户端,从而形成树状结构。然而,在这项工作中,我们考虑了一个更一般的框架。我们介绍了所谓的图联邦学习(GFL),它由几个服务器组成,每个服务器连接到它们自己的客户端子集。服务器之间的连接用一个图来表示。例如,当考虑到由多个手机发射塔组成的蜂窝网络时,这样的架构更加现实,每个手机发射塔都开放与许多蜂窝设备通信。
此外,我们还关注了联邦学习算法的隐私性。不明确通信本地数据以使算法私有是不够的。每个客户端共享的模型和梯度更新可能携带有关数据[3]-[6]的信息。例如,如果我们考虑一个逻辑风险函数,该梯度可以表示为一个常数乘以特征向量。因此,有必要将联邦算法私有化,以阻止信息泄漏。
存在多种解决分布式学习算法私有化的解决方案。它们可以分为两个框架:差分隐私( differential privacy)[7]-[15]和加密(cryptography)[16]-[20]。没有一个框架胜于对方。虽然差分隐私很容易实现,但它给解决方案增加了一个偏置。另一方面,安全多方计算(SMC)等加密方法更难以实现,并对参与方的数量施加了严格的限制。因此,在这项工作中,我们希望受益于这两种方法。我们基于[21]和[16]的工作开发了一个协议。前者利用差分隐私权将图上的分布式学习算法私有化。与标准的差分隐私方案不同,扰动不是独立的,而是它们被选择来满足由图结构确定的零空间(nullspae)条件。而后者将多个SMC工具合并到联邦学习体系结构中。但是,他们的方案可以总结为在已被可逆函数转换的更新中添加局部扰动,这将在服务器上被取消。
在本研究中,我们首先研究了私有化对学习算法性能的影响。我们研究了一般的私有算法,其私有化方案可以建模为附加噪声,无论是使用差异隐私还是SMC。然后,我们提出了我们所采用的协议,并详细说明了结果。

02

PROBLEM SET UP

图联合学习体系结构由    个服务器组成,每个服务器连接到一组    个客户端,如图1所示。连接服务器的图用组合矩阵    表示,其元素用    表示。其目标是将平均经验风险降至最低:

其中,每个经验风险    被定义为一个损失函数    :

引入下标   来表示服务器,而下标    表示客户端,    表示数据。为了解决问题(1),每个服务器及其客户端运行联邦平均(FedAvg)算法[1],然后服务器之间运行共识类型算法。在我们之前的工作[22]和[23]中,我们已经证明了当每个代理在向服务器发送最终更新之前运行不同数量的epoch时,所产生的增量误差在 µ 的量级上,并由梯度噪声控制。因此,为了简化工作,我们假设集合    中的    采样客户端在每次迭代中运行一个随机梯度下降(SGD)步骤。更正式的是,在迭代    ,每个代理    更新服务器    上的模型到    ,然后他们将其发送到服务器    :

其中,    是由客户端    采样的小批量,在迭代    时连接到服务器    ,大小为    。接下来,相邻的服务器会对接收到的更新进行相互通信:
平均服务器p周围的客户端权重:

最后得到聚合邻居服务器的更新:

接下来,为了给算法引入隐私性,每次通信期间发送的更新可能会受到一些噪声的干扰。因此,在迭代    中,让    是服务器    添加到发送到服务器    的更新中的噪声,而    是代理    添加到发送到服务器    的更新中的噪声。然后,该算法可以通过客户端更新步骤(6)来描述,服务器聚合步骤(7),以及一个服务器组合步骤(8)。

外,如果我们假设我们正在使用SMC工具,比如秘密共享,我们可以通过一个可逆函数    来建模协议,该函数将本地更新映射到一个加密版本。因此,在服务器聚合(7)和服务器组合(8)步骤中,我们分别将    和    替换为    和    。对于本文的其余部分,我们将继续使用(6)-(8)中的算法公式,而不是引入    ,以方便表示符号。

03

PERFORMANCE ANALYSIS

A. Modeling Conditions

B. Error Recursion

C. Generalized Convergence Results

D. Performance of the hybrid scheme

IV. PRIVACY ANALYSIS

以上部分分析与证明详见论文:A Graph Federated Architecture with Privacy Preserving Learning

V. EXPERIMENTAL RESULTS

了数值说明理论结果,我们模拟了一个由    服务器组成的GFL,每个服务器都有    客户端,其目标是解决一个逻辑回归二元问题。我们为每个客户端生成一组数据点    ,其中    ,和    与    。我们将我们的私有方案与使用标准扰动的标准私有算法以及非私有算法进行了比较。结果如图2所示。我们观察到,我们的混合方案在近似非私有方案方面做得非常好。我们还增加了噪声方差,我们观察到虽然IID私有方案不收敛,但我们的方案继续与非私有方案一样好。


04

CONCLUSION
在这项工作中,我们将联邦学习架构扩展到GFL。我们通过使用非随机扰动将算法私有化。我们使用差异隐私来量化我们的算法的隐私,并提供了一个性能分析。理论和实验结果均表明,非随机扰动降低了添加噪声对模型效用的负面影响。

本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。


“源头活水”历史文章


更多源头活水专栏文章,

请点击文章底部“阅读原文”查看



分享、在看,给个三连击呗!

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存