像教育孩子一样教导 AI ?
本篇文章由微软和安永联合著作。微软正在与安永合作进行人工智能成熟度调研,共同剖析各行业内企业人工智能成熟度现状,展望崭新业务机会,后续也将联手推出白皮书报告和系列相关活动,敬请期待。
“文化变革在很大程度上是由领导者推动的,它需要能够产生能量、激励员工的方法论,也需要一种能够培育、奖励这种文化的治理模式,以解决人工智能在运营和伦理方面带来的转型挑战。在一个AI就绪的组织中,信任是至关重要的。”
——施博德(Brad Smith)微软总裁兼首席法务官
人工智能正被应用到越来越广泛的业务场景中,以实现在以往由人执行的活动和任务上的自动化。对于AI系统的设计人员、架构师和开发人员而言,充分意识到AI相关法规和社会影响变得越来越重要。此外,他们还应该采用符合道德规范的设计以及参考AI治理方面的最佳实践。
建立对人工智能的信任
AI的负面影响包括运营压力、诉讼、负面新闻、客户流失、盈利能力降低和监管审查等,其中个人数据滥用问题更可能导致企业公信力危机。
安永开发的AI框架可以帮助企业了解可能会影响系统、产品、品牌和声誉的潜在风险。框架的核心着重在AI相关系统。企业必须了解、治理、调整和保护AI系统内部和相连的所有组件才能达到对AI完全信任。
要建立对AI的信任既需要技术也需要企业文化的支持。AI要想被用户接受,AI首先需要能够被理解,也就是说其决策框架是可以解释和验证的。AI还需要达到预期的性能,并且得到可靠的产出结果。
建立负责任的人工智能
前微软全球执行副总裁,微软人工智能及微软研究事业部负责人沈向洋博士与微软公司总裁,首席法务官施博德(Brad Smith)在《计算未来 人工智能及其社会角色》一书中强调负责任的人工智能所需的六个原则[1]:“公平,可靠,隐私与保障,包容,透明,负责。”
建立可信任人工智能的重要步骤
安永认为可信任的人工智能是基于以下三个重要步骤:
目的性设计:有目的地设计和构建系统,维护机器人、智能和自主功能之间的平衡,关注因果关系、限制条件、准备情况和相应风险
敏捷治理:从社会、法规、声誉和道德领域出发,识别并跟踪新出现的问题,为流程治理提供指导。在过程中保障流程管理系统的完整性、系统使用、架构和嵌入式组件、数据寻源和管理、模型训练和监控
密切监控:持续微调、整合和监控系统,以确保性能的可靠性,发现和纠正偏差并提高透明度和包容性
“教育AI就像养育孩子一样,你不仅需要教AI怎样做一件事,还要教它社会规范和价值观。开发人员在AI设计和开发之初就应该考虑到道德和信任风险。”
——凯茜·科比(Cathy Cobey)
安永全球人工智能信任主管合伙人
建立可信任的AI的治理模式
尽管越来越多企业意识到AI必须符合道德规范并具备可信赖性,但要确保AI的透明、公正、安全、准确和可审核性可能会超出开发人员的能力。企业需要建立可信任的AI生态系统。
微软协同安永提供帮助
人工智能在各个行业的应用和未来发展趋势受到热议,敬请关注下一期AI成熟度调研系列文章,来自微软和安永的行业专家将对热点问题答疑解惑。
[1]《计算未来 人工智能及其社会角色》
参考文献:《如何教导人工智能信任价值》, 安永
Office 365 Forms 与Flow应用于制造业在2019-nCov期间2最新活动重磅推荐丨微软 AI 商学院特辑