REFL: 联邦学习中智能的设备选择方法
Introduction
贡献:
强调学习者有限能力和可用性的资源利用在FL中的重要性,并提出REFL来智能地选择参与者并有效地利用他们的资源。 提出了陈旧感知聚合和智能参与者选择算法,以提高资源利用率,同时对准确性的时间影响最小。 使用真实世界的FL基准来实现和评估REFL,并将其与最先进的解决方案进行比较。
2
Background
在FL聚合中引入了截止时间。
FL的异质性:
数据异质性:Noniid数据;
系统异质性:算力不同;
行为异质性:学员的可获得性因轮次而异;
当前常见的异步算法:
SAFA:落后者参与者的半异步更新;然而,SAFA只允许学习者在有限的陈旧阈值内进行更新;
FiLL支持陈旧度更新,但其协议与FedAvg不兼容;
Oort优先选择学习速度快的学习者来缩短轮次持续时间。
The case for REFL
System Efficiency vs. Resource Diversity
当前FL对的设计,要么旨在减少达到准确的时间(系统效率),要么增加学习者池的覆盖率以增强数据分布并公平地分散训练工作量(资源多样性)。但没有考虑学习者的训练成本。
第一个目标导致对某些类别的学习者采取歧视性的做法,要么优先选择计算速度快的学习者,要么优先选择模型更新质量高的学习者(即具有高统计效用的学习者)
第二个目标需要将计算理想地分散到所有可用的学习者上,但代价是可能需要更长的轮次持续时间。
本文的目标是在二者之间取得一种平衡。
Stale Updates & Resource Wastage
SAFA从异步方法中汲取灵感,允许掉队的参与者通过陈旧的更新为全球模型做出贡献。其对所有学员进行培训,并在预设比例的学员返回更新时结束一轮培训。SAFA允许参与者在该轮截止日期后报告,在这种情况下,更新将被缓存并在下一轮中应用。
SAFA+O代表着其预先知道哪些设备会被选择并聚合,可以一定程度减小开销。
原则上,允许陈旧更新可以减少循环持续时间,获得更好的时间准确性,同时保留掉队者的贡献。然而,主要的挑战是平衡参与者的数量,以避免大量的资源浪费。
Participant Selection & Resource Diversity
Oort是通过改变设备选择策略,尽可能选择易于聚合的快速学习者提升准确率的设备,但减少了数据多样性。
同时还要考虑参与者可用性。每个设备参与者可用的时间长短不一。低可用性学习者可能需要特殊考虑,以增加独特参与者的数量,而不会对总体培训时间产生不利影响。
实验结果展示,动态且Noniid的情况下,准确率会下降10%左右。
综上,为了实现更好的模型泛化性能,应该在来自大部分学习者群体的数据样本上联合训练模型。(确保更广泛的学习者覆盖面)
REFL design
REFL通过减少延迟参与者的资源浪费和优先考虑可用性降低的参与者来实现这一点。它利用理论支持的方法,根据质量合并陈旧更新。智能参与者选择(IPS):对提高资源多样性的参与者进行优先排序。 陈旧感知聚合(SAA):在不影响准确性的情况下提高资源效率。
Staleness-Aware Aggregation(SAA)
收敛性分析从理论上证明了带有陈旧更新的FedAvg算法能够收敛并获得收敛速度。考虑个设备的联合优化问题:
Evaluation
用FedSacle实现了FL的集成。
benchmark:
Result
与SAFA相比,REFL耗时基本类似,但资源消耗较少。
加入动态评估时间可用参与者效果会更好。
在全部可用的情况下,Oort在iid情况下效果很好,但在Noniid情况下不能选择足够丰富的数据。由于SAA组件的加入,REFL以较低的资源使用获得了良好的模型质量。
作者简介:齐天宇,北京理工大学自动化学院智能信息与控制研究所研究生。主要研究兴趣包括机器学习、联邦学习、隐私保护。知乎:一朵小脑花。
往期推荐
密码学中常见加密算法的python模块整理
上岸!选择你的隐私计算导师!
对于多方安全计算,你是否也有这样的疑惑?