其他
联邦学习综述
The following article is from 狗熊会 Author 书缘
联邦学习的定义
联邦学习的背景
联邦学习基本的训练过程
放宽核心假设-去中心化联邦学习
联邦学习与典型分布式学习的区别
设备通常由大量的移动设备组成,每一个设备上的数据量相对较小,而设备数相对较多。 设备间的数据通常是非独立同分布、且不平衡的。 设备有通信限制:移动设备可能存在频繁掉线、速度缓慢、费用昂贵等问题。 更注重隐私,不允许原始数据在设备间互相传输。
联邦学习优化算法及其理论分析
minibatch SGD, 假设每个Client通信T轮,每个Client不执行K次局部SGD,而是执行一次minibatch SGD,对应数据量为K。则此时整个算法等价于迭代T轮的minibatch SGD,batchsize为KM,由此收敛速度有上界。 单机SGD,假设仅有一个Client参与模型更新,则此时等价于迭代KT轮的SGD,收敛速率上界为。
联邦学习的未来展望
Non-iid以及数据不平衡下,更高效的算法与收敛速度分析。 对抗Server/Clients遭受攻击,Clients失去响应等问题的更稳健的算法。 如何在保护隐私的情况下(例如差分隐私方法),同时达到较高的估计效率(尤其在高维情况下)。
软件和数据集
参考文献
招标|近期隐私计算项目信息5
隐私计算场景化技术探索【附PPT】
抵御投毒攻击的隐私保护的联邦学习
欢迎投稿邮箱:kedakeyin@163.com更多讨论,请扫描下方二维码,加入交流群一起学习成长。
开放隐私计算
OpenMPC