查看原文
其他

联邦学习顶会论文及开源框架汇总

白小鱼 隐私计算研习社 2022-11-05


今天介绍近几年发表于顶级期刊与会议的联邦学习相关论文,以及国内外主流的联邦学习开源框架,推荐收藏。原文由白小鱼整理在github上。

相关内容的github链接如下:[https://github.com/youngfish42/Awesome-Federated-Learning-on-Graph-and-Tabular-Data]


1


论文集


论文集收录的顶会包括:

Artificial Intelligence (IJCAI, AAAI, AISTATS) 

Machine Learning (NeurIPS, ICML, ICLR, COLT, UAI) 

Data Mining (KDD, WSDM) 

Secure (S&P, CCS, USENIX Security, NDSS) 

Computer Vision (ICCV, CVPR, ECCV, MM) 

Natural Language Processing (ACL, EMNLP, NAACL, COLING) 

Information Retrieval (SIGIR) 

Database (SIGMOD, ICDE, VLDB) 

Network (SIGCOMM, INFOCOM, MOBICOM, NSDI, WWW) 

System (OSDI, SOSP, ISCA, MLSys) 


1.1 FL in top AI Conferences

本节总结了被顶级 AI(人工智能)会议接受的联邦学习论文,包括 AAAI(AAAI Conference on Artificial Intelligence)、AISTATS(Artificial Intelligence and Statistics)。


Meta-Learning Based Knowledge Extrapolation for Knowledge Graphs in the Federated Setting

[https://doi.org/10.48550/arXiv.2205.04692]

Personalized Federated Learning With a Graph

[https://arxiv.org/abs/2203.00829]

1.2 FL in top ML conferences

本节总结了被顶级 ML(机器学习)会议接受的联邦学习论文,包括 NeurIPS(神经信息处理系统年度会议)、ICML(国际机器学习会议)、ICLR(国际学习表示会议)。


Fast Composite Optimization and Statistical Recovery in Federated Learning

[https://proceedings.mlr.press/v162/bao22b.html]

Personalization Improves Privacy-Accuracy Tradeoffs in Federated Learning

[https://proceedings.mlr.press/v162/bietti22a.html]

1.3 FL in top DM conferences

本节总结了被顶级 DM(Data Mining) 会议接受的联邦学习论文,包括 KDD(ACM SIGKDD Conference on Knowledge Discovery and Data Mining)。

Collaboration Equilibrium in Federated Learning

[https://arxiv.org/abs/2108.07926]

Connected Low-Loss Subspace Learning for a Personalization in Federated Learning

1.4 FL in top Secure conferences

在本节中我们总结了被顶级安全会议接受的联邦学习论文,包括 S&P(IEEE Symposium on Security and Privacy)、CCS(Conference on Computer and Communications Security)、USENIX Security(Usenix Security Symposium)和 NDSS(Network and Distributed System Security Symposium)。


SIMC: ML Inference Secure Against Malicious Clients at Semi-Honest Cost

[https://www.usenix.org/conference/usenixsecurity22/presentation/chandran]

Efficient Differentially Private Secure Aggregation for Federated Learning via Hardness of Learning with Errors

[https://www.usenix.org/conference/usenixsecurity22/presentation/stevens]

1.5 FL in top CV conferences

本节总结了顶级 CV(计算机视觉)会议接受的联邦学习论文,包括 CVPR(计算机视觉和模式识别)、ICCV(IEEE 国际计算机视觉会议)、ECCV(欧洲计算机视觉会议)。



Personalizing Federated Medical Image Segmentation via Local Calibration

[https://arxiv.org/abs/2207.04655]

Improving Generalization in Federated Learning by Seeking Flat Minima

[https://arxiv.org/abs/2203.11834]

1.6 FL in top NLP conferences

在本节总结了被顶级 AI 和 NLP 会议接受的联邦学习论文,包括 ACL(Annual Meeting of the Association for Computational Linguistics)、NAACL(North American Chapter of the Association for Computational Linguistics)、EMNLP(Conference on Empirical Methods in Natural Language Processing)和 COLING(International Conference on Computational Linguistics)。


Scaling Language Model Size in Cross-Device Federated Learning
[https://aclanthology.org/2022.fl4nlp-1.2.pdf]
Intrinsic Gradient Compression for Scalable and Efficient Federated Learning
[https://aclanthology.org/2022.fl4nlp-1.4.pdf]

1.7 FL on Graph Data and Graph Neural Networks

FedWalk: Communication Efficient Federated Unsupervised Node Embedding with Differential Privacy

[https://arxiv.org/abs/2205.15896]

EasyFGL: Towards a Unified, Comprehensive and Efficient Platform for Federated Graph Learning

[https://arxiv.org/abs/2204.05562]

1.8 FL on Tabular Data

Federated Random Forests can improve local performance of predictive models for various healthcare applications

Federated Forest

[https://arxiv.org/pdf/1905.10053]

1.9 FL in top-tier journal

Nature(及其子刊)、Cell、Science(Science Advances)、PANS中联邦学习领域的论文


Shifting machine learning for healthcare from development to deployment and from models to data
[https://www.nature.com/articles/s41551-022-00898-y]
Communication-efficient federated learning via knowledge distillation
[https://www.nature.com/articles/s41467-022-29763-x]

2



开源框架
PySyftAffiliations: OpenMinedgithub: https://github.com/OpenMined/PySyftdocs: https://pysyft.readthedocs.io/en/latest/installing.html

概述:PySyft 在主要深度学习框架(如 PyTorch 和 TensorFlow)中使用联邦学习、差分隐私和加密计算(如多方计算 (MPC) 和同态加密 (HE))将私有数据与模型训练分离。

FATEAffiliations: WeBankgithub: https://github.com/FederatedAI/FATEdocs: https://fate.readthedocs.io/en/latest/zh/

概述:FATE (Federated AI Technology Enabler) 是微众银行AI部门发起的开源项目,为联邦学习生态系统提供了可靠的安全计算框架。FATE项目使用多方安全计算 (MPC) 以及同态加密 (HE) 技术构建底层安全计算协议,以此支持不同种类的机器学习的安全计算,包括逻辑回归、基于树的算法、深度学习和迁移学习等。

MindSpore Federated

Affiliations: HUAWEI

github:

https://github.com/mindsporeai/mindspore/tree/master/tests/st/fldocs:https://mindspore.cn/federated/docs/zh-CN/r1.6/index.html概述:MindSpore Federated是一款开源联邦学习框架,支持面向千万级无状态终端设备的商用化部署,可在用户数据不出本地的前提下,使能全场景智能应用。TFF(Tensorflow-Federated)Affiliations: Googlegithub: https://github.com/tensorflow/federateddocs: https://www.tensorflow.org/federated

概述:TensorFlow Federated (TFF) 平台包含两层:联合学习 (FL):将现有 Keras 或非 Keras 机器学习模型插入 TFF 框架的高级接口。无须学习联合学习算法的详细内容,您就可以执行基本任务,如联合训练或评估;Federated Core (FC):通过将 TensorFlow 与强类型函数式编程环境中的分布式通信算子相结合,可简明表示自定义联合算法的底层接口。

FedMLAffiliations: USCgithub: https://github.com/FedML-AI/FedMLdocs: https://doc.fedml.ai/概述:FedML是一个开放的研究库和基准,可促进新的联邦学习算法的开发和公平的性能比较。FedML 支持三种计算范式(分布式训练、移动端训练和单机模拟),供用户在不同系统环境下进行实验。FedML 还通过灵活和通用的 API 设计和参考基线实现促进了多样化的算法研究。非 I.I.D 设置的策划和综合基准数据集旨在进行公平比较。我们相信 FedML 可以为联邦学习研究社区提供一种高效且可重复的方法来开发和评估算法。FlowerAffiliations: adapgithub: https://github.com/adap/flowerdocs:  https://flower.dev/docs/概述:Flower的目标是让每个人都能接触到联邦学习。FedlearnerAffiliations: Bytedancegithub: https://github.com/adap/flower docs:  https://flower.dev/docs/概述:Flower的目标是让每个人都能接触到联邦学习。

SecretFlow

Affiliations: Ant group

github: https://github.com/secretflow/secretflow

docs: https://github.com/bytedance/fedlearner/tree/master/docs/tutorials

概述:SecretFlow 是用于隐私保护数据智能和机器学习的统一框架。它提供了:抽象设备层由封装各种密码协议的普通设备和秘密设备组成;将更高算法建模为设备对象流和 DAG 的设备流层;使用水平或垂直分区数据进行数据分析和机器学习的算法层;无缝集成数据处理、模型训练和超参数调整的工作流层。


LEAF

Affiliations: CMU

github: https://github.com/TalwalkarLab/leaf

docs: https://leaf.cmu.edu/

概述:LEAF 是一个用于在联邦环境中学习的基准测试框架,其应用包括联邦学习、多任务学习、元学习和设备上学习。未来的版本将包括额外的任务和数据集。


FederatedScope

Affiliations: Alibaba DAMO Academy

github: https://github.com/alibaba/FederatedScope

docs: https://federatedscope.io/

概述:FederatedScope 是一个综合性的联邦学习平台,为学术界和工业界的各种联邦学习任务提供方便的使用和灵活的定制。FederatedScope 基于事件驱动的架构,集成了丰富的功能集合,以满足联邦学习日益增长的需求,旨在构建一个易于使用的平台,以安全有效地促进学习。


Rosetta

Affiliations: matrixelements

github: https://github.com/LatticeX-Foundation/Rosetta

docs: https://github.com/LatticeX-Foundation/Rosetta/blob

概述:Rosetta 是一个基于TensorFlow开发的隐私计算框架,它将陆续集成密码学、联邦学习和可信执行环境等主流的隐私计算技术。Rosetta 旨在为人工智能快速提供隐私保护技术解决方案,不需要用户掌握任何密码学、联邦学习和硬件安全执行环境领域的专业知识。Rosetta 在用户接口层复用了 TensorFlow 的对外 API 从而使得用户可以以最低的改造成本将隐私保护功能集成到现有的 TensorFlow 程序中。


PaddleFL

Affiliations: Baidu

github:https://github.com/PaddlePaddle/PaddleFL

docs: https://paddlefl.readthedocs.io/en/latest/index.html

概述:PaddleFL是一个基于PaddlePaddle的开源联邦学习框架。研究人员可以很轻松地用PaddleFL复制和比较不同的联邦学习算法,开发人员也比较容易在大规模分布式集群中部署PaddleFL联邦学习系统。PaddleFL提供很多种联邦学习策略(横向联邦学习、纵向联邦学习)及其在计算机视觉、自然语言处理、推荐算法等领域的应用。此外,PaddleFL还将提供传统机器学习训练策略的应用,例如多任务学习、联邦学习环境下的迁移学习。依靠着PaddlePaddle的大规模分布式训练和Kubernetes对训练任务的弹性调度能力,PaddleFL可以基于全栈开源软件轻松地部署。


OpenFL

Affiliations: Intel

github: https://github.com/intel/openfl

docs: https://openfl.readthedocs.io/en/latest/install.html

概述:OpenFL 是用于联邦学习的 Python 3 框架。OpenFL 旨在成为数据科学家的灵活、可扩展且易于学习的工具。OpenFL 由英特尔托管,旨在以社区为导向,并欢迎对项目做出贡献。


KubeFATE

Affiliations: WeBank

github: https://github.com/FederatedAI/KubeFATE

docs: https://github.com/FederatedAI/KubeFATE/wiki/#faqs

概述:KubeFATE 支持通过 Docker Compose 和 Kubernetes 部署 FATE。我们建议通过 Docker Compose 安装 FATE 的开发环境,通过 Kubernetes 安装生产环境。


Privacy Meter

Affiliations: University of Massachusetts Amherst

github: https://github.com/privacytrustlab/ml_privacy_meter

docs: https://github.com/privacytrustlab/ml_privacy_meter/tree/master/docs

概述:Privacy Meter 是一个开源库,用于评估统计和机器学习算法中的数据隐私泄露。该工具可以通过对(机器学习)模型的基本隐私泄露风险进行定量分析来帮助数据隐私保护过程。它使用最先进的推理技术来评估用于分类、回归、计算机视觉和自然语言处理的各种机器学习算法。


IBM Federated Learning

Affiliations: IBM

github: https://github.com/IBM/federated-learning-lib

docs:https://github.com/IBM/federated-learning-lib/blob/main/docs/papers.md

概述:IBM联邦学习是一个用于企业环境中联邦学习(FL)的Python框架。FL是一个分布式的机器学习过程,其中每个参与者节点(或一方)都在本地保留数据,并通过学习协议与其他参与者进行互动。FL背后的主要驱动力是隐私和保密问题、法规遵从要求,以及将数据转移到一个中央学习地点的实用性。IBM联合学习为FL提供了一个基本结构,可以在此基础上增加高级功能。它不依赖于任何特定的机器学习框架,并支持不同的学习拓扑结构,例如一个共享的聚合器和协议。它支持深度神经网络(DNN)以及经典的机器学习技术,如线性回归和K-means。这包括有监督和无监督的方法以及强化学习。


Fedlab

Affiliations: SMILELab

github: https://github.com/SMILELab-FL/FedLab

docs: https://fedlab.readthedocs.io/zh_CN/latest/

概述:FedLab提供了联邦学习模拟需要的模块,包括通信模块、压缩模块、模型优化模块、数据划分模块,以及其他功能性模块。用户可以像玩乐高积木一样用不同的自定义模块来搭建联邦学习模拟环境。


FedNLP

Affiliations: FedML

github: https://github.com/FedML-AI/FedNLP

docs: https://arxiv.org/abs/2104.08815

概述:FedNLP是一个面向研究的基准框架,用于推进自然语言处理(NLP)中的联邦学习(FL)。它在后端使用FedML API,用于FedAvg和FedOpt等各种联合算法和平台(分布式计算、物联网/移动设备)。


NVFlare

Affiliations: NVIDIA

github: https://github.com/NVIDIA/NVFlare

docs: https://nvflare.readthedocs.io/en/2.1.1/

概述:NVIDIAFLARE是一个独立的python库,旨在实现各方之间的联合学习,使用他们的本地安全保护数据进行客户端训练,同时它还包括协调和交换所有站点的结果进展的功能,以实现更好的全局模型,同时保护数据隐私。


Backdoors 101

Affiliations: Cornell Tech

github: https://github.com/ebagdasa/backdoors101

docs: https://arxiv.org/abs/2005.03823

概述:Backdoors 101 - 是一个PyTorch框架,用于对深度学习模型进行最先进的后门防御和攻击。它包括真实世界的数据集,集中式和联邦学习,并支持各种攻击载体。


FedScale

Affiliations: SymbioticLab(U-M)

github: https://github.com/SymbioticLab/FedScale

docs: https://arxiv.org/pdf/2105.11367.pdf

概述:FedScale(fedscale.ai)提供了高层次的API来实现FL算法,在不同的硬件和软件后端大规模部署和评估它们。FedScale还包括最大的FL基准,包含从图像分类和物体检测到语言建模和语音识别的FL任务。此外,它还提供了数据集,以忠实地模拟FL的训练环境。


FedJAX

Affiliations: GOOGLE

github: https://github.com/google/fedjax

docs: https://arxiv.org/pdf/2108.02117.pdf

概述:FedJAX是一个基于JAX的开放源码库,用于联合学习模拟,强调研究中的易用性。凭借其实现联合学习算法的简单基元、预包装的数据集、模型和算法以及快速的模拟速度,FedJAX旨在使研究人员更快更容易地开发和评估联合算法。FedJAX在加速器(GPU和TPU)上工作,不需要太多额外的设置。其他细节和基准可以在我们的论文中找到。


XayNet

Affiliations: XayNet

github: https://github.com/google/fedjax

docs: https://arxiv.org/pdf/2108.02117.pdf

概述:XayNet重点关注屏蔽式的跨设备联邦学习,以使数百万的低功率边缘设备(如智能手机甚至汽车)的机器学习的协调。通过这样做,我们希望也能提高联合学习在实践中的采用速度和范围,特别是允许对终端用户数据的保护。


SyferText

Affiliations: OpenMined

github: https://github.com/OpenMined/SyferText

docs: https://github.com/OpenMined/SyferText/tree/master/docs

概述:SyferText是一个在Python中保护隐私的自然语言处理库。它利用PySyft对文本数据进行联邦学习和加密计算(多方计算(MPC))。


FedGraphNN

Affiliations: FedML

github:https://github.com/FedML-AI/FedGraphNN

docs:https://arxiv.org/abs/2104.07145

概述:FedGraphNN是一个开放的FL基准系统,可以促进对联合GNN的研究。FedGraphNN建立在图FL的统一表述上,包含了来自不同领域的广泛的数据集、流行的GNN模型和FL算法,并有安全和高效的系统支持。


plato

Affiliations: UofT

github: https://github.com/TL-System/plato

docs: https://github.com/TL-System/plato/tree/main/docs

概述:一个用于可拓展联邦学习研究的框架


Galaxy Federated Learning

Affiliations: ZJU

github: https://github.com/GalaxyLearning/GFL

docs: http://galaxylearning.github.io/

概述:Galaxy Federated Learning Framework(GFL) 是一个基于区块链的去中心化联邦学习框架。GFL以Ethereum为基础建立去中心化通信网络,通过智能合约完成联邦学习中要求可信的关键功能。同时,GFL简化了联邦学习建模过程,让开发者可以快速建模和验证。


PFL-Non-IID

Affiliations: SJTU

github: https://github.com/TsingZ0/PFL-Non-IID

docs: https://github.com/TsingZ0/PFL-Non-IID


NIID-Bench

Affiliations: Xtra Computing Group

github: https://github.com/Xtra-Computing/NIID-Bench

docs: https://arxiv.org/pdf/2102.02079.pdf

概述:这个仓库包括了非IID数据分布情况下的联合学习算法的基准测试。具体来说,我们实现了4种联合学习算法(FedAvg、FedProx、SCAFFOLD和FedNova),3种非IID设置(标签分布倾斜、特征分布倾斜和数量倾斜)和9个数据集(MNIST、Cifar-10、Fashion-MNIST、SVHN、Generated 3D dataset、FEMNIST、adult、rcv1、covtype)。


substra

Affiliations: Substra

github: https://github.com/Substra/substra

docs:https://doc.substra.ai/

概述:Substra是一个框架,提供合作伙伴之间机器学习任务的分布式协调,同时保证所有操作的安全和可追溯性。


FLSim

Affiliations: facebook research

github: https://github.com/facebookresearch/FLSim

docs: https://github.com/facebookresearch/FLSim/tree/main/tutorials

概述:Federated Learning Simulator(FLSim)是一个用PyTorch编写的灵活、独立的库,用最小的、易于使用的API模拟FL设置。FLSim是领域无关的,可容纳许多使用案例,如计算机视觉和自然文本。目前,FLSim支持跨设备FL,即数百万客户的设备(如手机)一起协作训练一个模型。


PyVertical

Affiliations: OpenMined

github: https://github.com/OpenMined/PyVertical

docs: https://arxiv.org/pdf/2104.00489.pdf

概述:用于隐私保护、纵向联邦学习的框架


FedTorch

Affiliations: Penn State

github: https://github.com/MLOPTPSU/FedTorch

docs: https://arxiv.org/pdf/2104.00489.pdf

概述:用于隐私保护、纵向联邦学习的框架


Primihub

Affiliations: primihub

github: https://github.com/primihub/primihub

docs: https://docs.primihub.com/docs/

概述:PrimiHub-是由原语科技基于安全多方计算、联邦学习、同态加密、可信计算等隐私计算技术,结合区块链等自主研发的隐私计算应用平台。PrimiHub秉承保护数据在应用过程中的隐私安全,实现“数据可用不可见”。产品平台涵盖了匿踪查询、隐私求交、联合建模、联合统计、算法容器管理、数据资源管理、数据确权与定价、异构平台互联互通等主要应用服务功能。


FLUTE

Affiliations: microsoft

github: https://github.com/microsoft/msrflute

docs: https://microsoft.github.io/msrflute/

概述:FLUTE是一个基于pytorch的协调环境,能够实现基于GPU或CPU的FL模拟。FLUTE的主要目标是使研究人员能够快速建立原型并验证他们的想法。


FLSim

Affiliations: University of Toronto

github:https://github.com/iQua/flsim

docs:https://infocom2020.ieee-infocom.org/

概述:FLSim是一个基于pytorch的模拟联邦学习框架。


9nfl

Affiliations: JD

github: https://github.com/jd-9n/9nfl

概述:九数联邦学习整体解决方案, 整个系统分为四个大模块: 整体调度与转发模块; 资源管理与调度模块; 数据求交模块; 训练器模块


FedLearn

Affiliations: JD

github: https://github.com/cyqclark/fedlearn-algo

docs:https://github.com/cyqclark/fedlearn-algo/tree/master/docs

概述:FedLearn-algo是一个用于研究环境的开源框架,以促进对新型联合学习算法的研究。FedLearn-algo提出了一个分布式机器学习架构,使垂直和水平的联合学习(FL)开发成为可能。这个架构支持每个特定算法设计的灵活模块配置,并可以扩展到建立最先进的算法和系统。FedLearn-algo还提供了全面的例子,包括基于FL的内核方法、随机森林和神经网络。最后,FedLearn-algo中的水平FL扩展与流行的深度学习框架兼容,例如PyTorch、OneFlow。


FEDn

Affiliations: scaleoutsystems

github: https://github.com/scaleoutsystems/fedn

docs: https://scaleoutsystems.github.io/fedn/

概述:FEDn是一个模块化和模型不可知的框架,用于分层联合机器学习,可以从伪分布式开发扩展到分布式异构环境下的真实世界生产网络。


EasyFL

Affiliations: NTU

github:https://github.com/EasyFL-AI/EasyFL

docs: https://easyfl.readthedocs.io/en/latest/

概述:EasyFL是一个基于PyTorch的易于使用的联邦学习(FL)平台。它的目的是使具有不同专业水平的用户能够在很少/没有编码的情况下进行FL应用的实验和原型设计。


FedCV

Affiliations: FedML

github: https://github.com/FedML-AI/FedCV

docs: https://arxiv.org/abs/2111.11066

概述:我们提出了一个联邦学习库和基准框架,名为FedCV,以评估FL在三个最具代表性的计算机视觉任务上的表现:图像分类、图像分割和物体检测。我们提供了非I.I.D.基准数据集、模型和各种参考FL算法。我们的基准研究表明,有多种挑战值得未来探索:集中训练的技巧可能不能直接应用于FL;非I.I.D.数据集实际上在不同的任务中在一定程度上降低了模型的准确性;鉴于参数的巨大数量和每个客户的内存成本,提高联合训练的系统效率具有挑战性。我们相信,这样一个库和基准,以及可比较的评估设置,对于在计算机视觉任务的FL中取得有意义的进展是必要的。


FedTree

Affiliations: Xtra Computing Group

github: https://github.com/Xtra-Computing/FedTree

docs: https://fedtree.readthedocs.io/en/latest/index.html

概述:FedTree是一个基于树形模型的联合学习系统, 其目标是设计一个安全高效的联邦学习系统。


MPLC

Affiliations: LabeliaLabs

github:https://github.com/LabeliaLabs/distributed-learning-contributivity

docs: https://www.labelia.org/

概述:MPLC是一个多方联合学习框架。


OpenHealth

Affiliations: ZJU

github: https://github.com/QibingLee/OpenHealth

docs: https://openfed.readthedocs.io/README.html

概述:OpenHealth基于Fisco Bcos和代理重加密搭建以患者为中心的医疗数据隐私共享平台,解决当前医疗机构、医疗(AI)服务商、IoT医疗设备之间的数据孤岛问题,并将医疗数据的分享控制权限归还给患者个人,形成一份完整医疗记录。我们还将在基础之上,搭建去中心化的医疗数据市场和AI服务市场,提供联邦学习套件给以上各参与方,将AI模型带到各计算边缘,实现医疗数据隐私保护下的联合机器学习,提高医疗服务的质量。


OpenFed

github: https://github.com/FederalLab/OpenFed/

docs: https://openfed.readthedocs.io/README.html

概述:OpenFed是联邦学习研究的一个基础库,支持许多研究项目。它通过有针对性地消除现有的痛点,降低了联邦学习的研究人员和下游用户的准入门槛。对于研究人员来说,OpenFed提供了一个框架,在这个框架中,新的方法可以很容易地被实施,并根据一套广泛的基准进行公平的评估。对于下游用户来说,OpenFed允许联邦学习在不同的主题背景下即插即用,消除了对联邦学习的深度专业知识的需求。


FedEval

Affiliations: HKU

github:https://github.com/Di-Chai/FedEval

docs: https://di-chai.github.io/FedEval/

概述:FedEval是一个具有综合评价模型(即iSpree模型)的基准平台,用于联邦学习。


Flame

Affiliations: Cisco

github:https://github.com/cisco-open/flame

docs:https://github.com/cisco-open/flame/blob/main/docs/03-fiab.md

概述:Flame是一个平台,使开发者能够轻松地组成和部署联邦学习(FL)训练。该系统由一个服务(控制平面)和一个python库(数据平面)组成。该服务管理机器学习工作负载,而python库促进了ML工作负载的组成。而库也负责执行FL工作负载。通过其库的可扩展性,Flame可以支持各种实验和用例。


APPFL

Affiliations: Cisco

github: https://github.com/APPFL/APPFL

docs: https://appfl.readthedocs.io/en/stable/

概述:APPFL是一个开源的软件框架,允许研究团体实施、测试和验证各种保护隐私的联邦学习(PPFL)的想法。通过这个框架,开发者和/或用户可以在具有差异化隐私的分散数据上训练一个用户定义的神经网络模型;用MPI在高性能计算(HPC)架构上模拟各种PPFL算法;以即插即用的方式实现用户定义的PPFL算法。这种算法组件包括联邦学习(FL)算法、隐私技术、通信协议、训练的FL模型和数据。


Clara

Affiliations: NVIDIA

docs:https://docs.nvidia.com/#nvidia-clara

概述:英伟达Clara是一个医疗保健应用框架,用于人工智能驱动的成像、基因组学以及智能传感器的开发和部署。它包括全栈式的GPU加速库、SDK和参考应用程序,供开发人员、数据科学家和研究人员创建实时、安全和可扩展的解决方案。

END

作者简介:

知乎:白小鱼。目前在上海交通大学计算机系攻读博士学位,主要研究兴趣包括联邦学习、小样本学习。


往期精选

论文笔记:发布具有差分隐私保证的图神经网络

BFLC:带有委员会机制的基于区块链的去中心化联邦学习架构

统计视角下的差分隐私

联邦学习前沿 | 基于图神经网络的联邦推荐系统研究




欢迎投稿
邮箱:pet@openmpc.com
参与更多讨论,请添加小编微信加入交流群

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存