NeurIPS 2023 | 在表征空间消除域偏移,优化联邦学习中的双向知识迁移过程
©PaperWeekly 原创 · 作者 | 张剑清
单位 | 上海交通大学
本文介绍的是我们的一篇收录于 NeurIPS 2023 的论文。我们设计了一个领域偏差消除器(DBE)来解决联邦学习(FL)中的数据异构问题。该方法可以提升服务器-客户机之间的双向知识迁移过程,并提供了理论保障,能够在泛化能力和个性化能力两个方面进一步为其他联邦学习方法带来提升。
大量实验表明,我们可以在各种场景下为传统联邦学习方法实现最多 22.35% 的泛化能力提升,而且 FedAvg+DBE 能在个性化方面比现有的 SOTA 个性化联邦学习(pFL)方法高了 11.36 的准确率。
论文标题:
https://arxiv.org/pdf/2311.14975.pdf
https://github.com/TsingZ0/DBE(含有PPT和Poster)
https://github.com/TsingZ0/PFLlib
联邦学习简介
不论是隐私保护的需求还是在数据财产保护的需要,将本地的私有数据进行外传都是需要尽量避免的。联邦学习是一种新型的分布式机器学习范式,它能够在保留数据在本地是前提下,以中央服务器作为媒介,进行多个客户机(设备或机构)间的协作学习和信息传递。
在联邦学习过程中,参与协作学习的客户机之间约定一种信息的传递方式(一般是传递模型参数),并以该方式进行一轮又一轮的迭代,实现本地模型(和全局模型)的学习。每一轮传递的信息,作为一种外部信息,弥补了单一客户机独自学习时本地数据不足的问题。
▲ 图1:联邦学习及其数据异质性问题
表征偏移和表征退化现象
在每一次迭代学习过程中,每个客户机在收到全局模型后,会在其本地数据上进行训练。这个过程会将全局模型转化为本地模型,如下图所示。
▲ 图2:联邦学习中客户机上的本地训练过程
在客户机的本地训练过程中,我们发现了表征偏移和表征退化这两个现象。具体来说,表征偏移(如图 3 所示)指的是:如果我们把所有客户机(总共 20 个)上的数据在经过模型后得到的表征向量进行 t-SNE 可视化,我们可以看到:客户机收到全局模型的时候可视化的图像(图 3 左)中所有表征都是混杂在一起的,不论客户机 ID 和样本标签。
而在进行了本地训练后,这些通过本地模型输出的表征却都偏移到每个客户机各自的域上了(图 3 右),形成了 20 个簇。这是由于模型吸收了本地数据中“有偏”的数据,导致模型对于表征的学习也变得“有偏”了。
伴随着表征偏移的出现,表征退化也同步出现。我们用 MDL [2] 这种经典的、与模型和任务无关的度量标准来评估模型。进一步观察后,我们发现这种表征偏移并不是使得模型变得更好,而是使之变得更差,而且这种情况在模型的每一层都有发生,如图 4 所示。
域偏移消除器
这里我抛去论文中详细的公式表达,只用图示的方式来说明我们的域偏移消除器,细节上有不清楚的可以查看我们论文中的公式。首先,由于我们主要关注在表征提取层面,我们便将模型分割为前后两部分,第一部分为“特征提取器”,第二部分为“分类器”,如图 5 所示。
▲ 图5:本地模型
对双向知识迁移的增强
实验
▲ 表1:FedAvg+DBE 中,DBE 插入到不同层之间的效果
▲ 表2:DBE 应用到代表性传统联邦学习方法上的效果。
▲ 表3:FedAvg+DBE 与 SOTA 个性化联邦学习方法的对比实验。
参考文献
[1] Brendan McMahan, Eider Moore, Daniel Ramage, Seth Hampson, and Blaise Aguera y Arcas. Communication-Efficient Learning of Deep Networks from Decentralized Data. In International Conference on Artificial Intelligence and Statistics (AISTATS), 2017.
[2] Ethan Perez, Douwe Kiela, and Kyunghyun Cho. True Few-Shot Learning with Language Models. In International Conference on Advances in Neural Information Processing Systems (NeurIPS), 2021.
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧