铸星计划 | 期待与你共同打造“负责任的人工智能”
2022 年“铸星计划”已启动!加入微软亚洲研究院不同领域的科研团队,在世界一流的企业级研究实验室中与资深研究员们结成专属“星搭档”;在自由宽松的研究氛围中,和科研团队一起开展人工智能等前沿领域的创新性研究,做出有影响力的学术成果……诸多“星”体验,只待你加入“铸星计划”!(点击“阅读原文”,了解项目详情和报名方式)
为了汇集群星,吸引更多志同道合的优秀青年学者,今年的“铸星计划”特别聚焦几大特别科研主题。本期推送将介绍负责任的人工智能(Responsible AI)科研主题及相关研究员。请持续关注“铸星计划”特别科研主题系列介绍文章,期待与您在科研长空,共铸星光!
✦
“星”主题
✦
人工智能正在深刻的改变着全世界人类的社会生活。我们需要确保人工智能技术以安全、可靠、可控的方式推进,并促进经济、社会和生态的可持续发展。为了负责任地创建和使用人工智能技术,微软公司制定了以人为本的六大原则,包括公平、可靠和安全、隐私和保障、包容、透明、以及责任。
为了更好的支持这些原则,我们不仅需要完善当前的人工智能解决方案,还需要开发新的负责任的机器学习技术并将其变为现实。在这个主题中,我们期待与学术界不同学科的学者合作,共同应对负责任人工智能领域的重要挑战,促进人工智能健康发展,并推进人工智能伦理和社会影响方面的研究。
我们重点关注以下研究课题:
机器学习中的可解释性和公平性
机器推理和因果学习
隐私保护机器学习
负责任的语言理解和生成
负责任的推荐系统
鲁棒机器学习
✦
“星”团队
✦
微软亚洲研究院负责任的人工智能研究团队是一个跨研究组的多元化团队,包含十几位来自数据挖掘、机器学习、自然语言处理、隐私保护领域的研究员,以及几十位来自全世界各地的访问学生。团队与学术界开展了广泛的合作,通过计算机科学与社会科学、心理学和认知科学相交叉的跨学科研究,共同应对负责任人工智能领域的重要挑战,促进人工智能健康发展。
✦
“星”搭档
✦
谢幸
微软亚洲研究院首席研究员
研究兴趣 ✦
数据挖掘、社会计算和普适计算等方面。
铸星寄语 ✦
负责任的人工智能是一个新兴的跨学科研究领域,需要学术界与工业界的深入合作。我们期待通过铸星计划,与学术界所有感兴趣的学者携手推进这个领域向前发展,让人工智能技术能够真正造福人类。
李东胜
微软亚洲研究院(上海)
高级研究经理
研究兴趣 ✦
机器学习及其应用。
铸星寄语 ✦
目前我所在的团队位于上海,与 Responsible AI 相关研究主要集中在机器学习算法的可解释性,尤其对解释的动态性、因果性和常识性等问题感兴趣。可解释性是人与 AI 交互的过程中的关键因素之一,欢迎对可解释机器学习感兴趣的老师加入我们,一起探索如何让人与 AI 互相理解、和谐共处。
朱斌
微软亚洲研究院高级研究员
研究兴趣 ✦
AI 安全和隐私、AI 应用、隐私保护处理、互联网和系统安全,以及多媒体处理。
铸星寄语 ✦
近年来,人工智能在许多具有挑战性的任务中取得了不错的成果,与此同时它也面临着新的挑战。我所在团队专注于两个主要挑战:AI 安全性、隐私保护模型训练和推理。我们衷心希望与志趣相投的高校同仁密切合作,共同应对以上挑战,做出有价值的研究。
王希廷
微软亚洲研究院主管研究员
研究兴趣 ✦
以可解释性为主要目标的负责任机器学习方法研究。
铸星寄语 ✦
我所在团队目前希望从以下角度入手,解决可解释性研究的落地应用:
1) Steerable(可操纵性)。模型需要从仅仅可解释升级成更高级的版本,需要能可预测、粒度可调节、效果稳定的操纵。
2) Reasoning (推理)。通过设计更多和人类推理过程类似的可解释性的模块,我们或许可以更好解决这些非常难的推理任务。
3) Societal impact(社会影响)。希望从心理学的角度,了解人与机器之间的信任如何建立,什么样的解释是用户真正需要的,是否有更好的解释形式。
吴方照
微软亚洲研究院主管研究员
研究兴趣 ✦
负责任 AI、用户隐私保护、推荐系统、自然语言处理等方面的研究和实践。
铸星寄语 ✦
数据是 AI 的基础,如何在保护数据隐私的前提下实现 AI 模型的训练,是一个重要且紧迫的研究课题。联邦学习是一种重要的面向隐私保护的机器学习框架,可以在不收集数据的情况下协同进行模型的训练,实现数据的“可用不可见”,从而保护隐私信息。然而联邦学习在应用过程中存在诸多挑战,如计算代价、通信开销、模型和数据异构、隐私泄露、模型安全等。目前我们正进行一系列的研究来应对这些挑战,期待与铸星计划的老师一起在这些方向进行研究。
王晋东
微软亚洲研究院研究员
研究兴趣 ✦
迁移学习算法及应用。
铸星寄语 ✦
我主要从数据、特征、模型三个角度研究 Responsible AI:
1)可用训练数据过少的情况下如何使模型习得更好的表征,即低资源学习;
2)训练和测试数据分布不一致时如何使习得更鲁棒的特征,即领域泛化;
3)面对开源预训练模型,如何使得迁移不易被攻击,即安全迁移学习。此外还涉及到个性化联邦学习等方向。
矣晓沅
微软亚洲研究院研究员
研究兴趣 ✦
主要从事自然语言生成(NLG)方向的研究,着重关注语言自动生成中的 Responsibility(负责任)、Creativity(创新性)和 Writing Assistance(智能写作辅助)等问题。
铸星寄语 ✦
我关注符合道德要求的自然语言生成,具体关注 NLG 中的 Detoxification(去毒性)和 Debiasing(去偏见)。预训练语言模型(例如 GPT-3)尽管在众多 NLG 下游任务提升显著,但也容易产生有害内容,如仇恨言论和针对特定群体(如少数族裔)的刻板印象,既影响模型的安全部署,也会招致暴力、传播偏见,造成严重社会影响。我们希望针对不断增大的语言模型,研究如何在高效且对下游任务性能不产生影响的前提下,防止其生成有害内容。期待与铸星计划的老师共同开展研究,一起促进社会公平,实现 AI 的和谐发展。
扫描上方“铸星计划”二维码
即可了解项目详情或申请报名!
你可能还想看:
点击“阅读原文”,了解“铸星计划”项目详情和报名方式