在科学研究中,从方法论上来讲,都应“先见森林,再见树木”。当前,人工智能学术研究方兴未艾,技术迅猛发展,可谓万木争荣,日新月异。对于AI从业者来说,在广袤的知识森林中,系统梳理脉络,才能更好地把握趋势。为此,我们精选国内外优秀的综述文章,开辟“综述专栏”,敬请关注。
地址:https://zhuanlan.zhihu.com/p/393907649这里介绍另外一篇,IEEE杂志 INTERNET OF THINGS JOURNAL在2020年10月发表的综述“A Survey on Federated Learning: The Journey from Centralized to Distributed On-Site Learning and Beyond“,作者来自几位大学学者。该文比较不同的基于机器学习(ML)的部署架构,然后对联邦学习(FL)进行回顾。基于对主要技术挑战和当前相关工作的分析,对 FL 主题和研究领域进行了新的分类。详细阐述了各种具有挑战性的方方面面、贡献和趋势,包括核心系统模型和设计、应用领域、隐私和安全、以及资源管理。此外,文章讨论了更强大的 FL 系统面临的重要挑战和开放研究方向。虽然设备(现场)ML 将任务从云端推送到设备以便在本地保存原始数据,但每个设备都构建自己的模型,没有从其他设备的数据和经验中受益。FL可以克服这些问题,同时保护隐私并减少数据收集的开销。在训练数据和用于训练的设备方面,它是一种分布方法。FL让原始数据保存在最终用户设备上,它们合作训练联合模型。中央服务器仅接收和汇总本地计算的更新和分析结果,用于分布式学习的增强全局模型。然后,与客户共享新模型,彼此之间共享知识。该综述讨论了FL的主要技术挑战,如Core System Model and Design, Application Areas, Privacy and Security, 和 Resource Management。还有分析FL的应用领域,如Gboard, Healthcare, IoT, Edge Computing, Networking, Robotics, Grid-World, Models, Recommender Systems, Cybersecurity, Online Retailers, Wireless Communications 和 Electrical Vehicles。在FL的Privacy & Security方面,主要涉及以下方法:cryptographic protocols, privacy techniques, data poisoning attacks, model update poisoning attacks 和 defenses to poisoning attacks。在集中学习(左),数据被发送到云端,在那里构建 ML 模型;用户通过 API 发送访问服务的请求使用该模型。在分布式现场学习(中),每个设备使用其本地数据集构建自己的模型;在与云进行第一次交互将模型分发到设备后,不再需要与云进行通信。在联邦学习(右),每个设备训练一个模型并将其参数发送到服务器进行聚合;数据保存在设备上,知识通过聚合模型与同行共享。以下步骤:(1) 以分布式方式训练模型,原始数据保存在设备上,在每个选定的客户端做本地训练模型,并将其参数发送到服务器,(2) 在服务器对接收的模型进行聚合,以及 (3) 向客户端分发新模型。FL 最早在Gboard, 为Android的Google keyboard,做测试。目前开源的有:TensorFlow Federated (TFF), Federated AI Technology Enabler (FATE), PySyft, PaddleFL, Clara Training Framework等。FL的问题主要是在分布式架构方面、收集数据质量、托管学习模型的设备类型、通信和聚合机制、不同方面的参与以及不同应用程序的适用性等。列出的挑战有:1. Non-Independent and Non-Identically Distributed (Non-IID) Data3. Massively Distributed Data4. Unreliable Device Connection该综述针对这些挑战在以下方面展开讨论:Core System Model and Design, Application Areas, Privacy and Security, 和 Resource Management。01
FL SYSTEM MODEL & DESIGN的研究工作分类如图02
FL Application Areas的类别总结如下表03
1)Privacy:由于参与者可以在整个过程中自由加入和断开通信回合,因此 FL 设置会引起许多参与者各种的威胁模型和漏洞,如图把它们分成三种,即Malicious Server,Insider adversary和Outsider adversary。为安全的隐私保护,FL 系统提出了一些实验和可能的解决方案。另外,研究人员使用了不同的隐私技术,如图可以基本化为两个类,Cryptographic Protocols 和 Differential Privacy:主要是Secure Multi-Party Computation (SMC),Homomorphic Encryption (HE)和Hybrid Protocols。
2)Security:如图是两种FL的对抗攻击类型,Data Poisoning 和 Model Update Poisoning
04
针对所选客户端、学习的超参数、训练次数和持续时间、以及聚合策略相关,做出最佳决策。为此,定义了多种优化问题和求解方法(如图所示),均基于以下几个准则,即Clients Reliability: 资源(CPU、energy)、位置可追溯性(GPS 坐标)、本地训练时间和更新参数质量(准确性、损失)。一些工作假设每轮学习中这些指标的“实际”值是可用的,而另一些工作则采用各种方法来“预测”这些值。Network Link Quality: 上行链路/下行链路带宽已经可用或可能已分配。Central Aggregation Server: 聚合时间、全局模型精度和损失。优化方法包括global model (accuracy & loss) convergence time, clients consumed resources, wireless links usage等等。最后是挑战和展望,即核心系统模型和设计、应用领域、隐私安全以及资源管理方面:
1. Core System Model and Design:baseline聚合方法是Federated Averaging,复杂的方法也在研究,比如Neural Networks。2. Application Areas:autonomous vehicles,Unmanned aerial vehicles (UAVs)和smart homes,这里标注数据是个问题。3. Privacy and Security:保证的同时有准确度的损失。4. Resource Management:考虑采用edge computing,这里鲁棒性是个课题。可以看到,联邦学习已成为一种创新的学习范式,对智能手机、可穿戴设备和自动驾驶汽车等不断增长的计算能力以及对保护私人数据的担忧做出应对。由于越来越需要在本地存储数据并将 机器学习计算推送到终端设备,同时还要减少数据通信开销,研究人员已经将FL训练技术应用于众多学科领域。
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“综述专栏”历史文章
更多综述专栏文章,
请点击文章底部“阅读原文”查看
分享、点赞、在看,给个三连击呗!