2023年度腾讯犀牛鸟精英人才计划——隐私保护相关课题
可信图学习和可信生成式 AI(深圳)
项目介绍:
深度神经网络被广泛地运用于医疗、制药、风控等风险敏感领域,其中存在大量可信 AI 相 关的研究问题。本项目将围绕如下两个课题开展:
(1)可信图学习:将图学习运用于风控、AI 制药等场景时,通常会面临一系列可信性的挑 战。本项目着重围绕图数据中的分布迁移以及标签噪声设计鲁棒消息传递机制以及鲁棒优化 范式,从而提升图模型的可靠性;
(2)可信生成式 AI:基于生成式 AI 的应用例如 AI 绘画等的病毒式爆发也带来了一系列模 型可信性和算法伦理的问题。本项目将围绕生成式 AI 模型例如扩散模型中的数据安全,隐私保护,以及版权保护开展探索以及设计相应的可信算法机制。
导师简介:
腾讯高级研究员,研究方向为可信 AI 中的隐私保护以及鲁棒优化。本科毕业于 北京大学数学系,博士毕业于北京大学计算机系。在 NeurlPS、HPCA、ISCA、CVPR 等多 个顶级会议上发表二十余篇论文。曾获得 ACM 中国区信息安全学会优秀博士,中国电子教 育协会优秀博士,苹果博士奖学金(每年大陆仅一位),北京市优秀毕业生等多个荣誉称号。参与了 IEEE P2830 共享机器学习标准的制定。
下一代纵向联邦深度学习架构和训练方法研究(深圳/北京)
项目介绍:
纵向联邦深度学习(VFDL)已在广告和推荐业务场景落地应用,为数据协同业务提供了新 的解决方案。当前 VFDL 主要是基于 Split Learning(SL)架构来实现纵向联邦神经网络模 型的训练和推理。SL 架构易于工程实现和与现有业务系统集成。然而在广告和推荐业务实 践中,SL 架构也有一些不足之处,例如,联邦训练的效率问题、联邦模型的质量问题、交 集 ID 暴露等。鉴于此,本课题旨在探索除 SL 架构以外的下一代 VFDL 架构,以及新的 VFDL模型训练方法,例如,不暴露交集 ID 的联邦模型训练方法。希望从架构和训练方法层面彻 底解决现有 VFDL 方案在实际应用中遇到的问题。
导师简介:
腾讯专家研究员,中国专利审查技术专家,博士毕业于德国达姆施塔特工业大学, 主要研究方向包括深度学习、联邦学习、分布式计算、隐私计算等;发表期刊和会议论文 20 余篇,提交发明专利申请 60 余项,已获授权发明专利 30 余项,是《联邦学习》专著主 要撰写人之一;其负责的腾讯 Angel PowerFL 隐私计算平台获得数博会“领先科技成果奖”, 曾带领团队获得 iDASH 国际隐私计算大赛冠军。
往期推荐
TDSC 2022 | 为安全联邦学习建立互信的多混洗框架
多方计算实验中不同网络环境的模拟方法