查看原文
其他

BIS | 金融机构的监管预期:对人工智能监管模型的约束

FinTech研究所 人大金融科技研究所 2023-03-29

近些年,人工智能技术逐步应用于各国金融监管机构,大大改善了金融服务水平,但是也同样带来了新的风险和挑战。在这样的场景下,更需要完备的的监管框架,才能优化新技术带来的优势,最小化风险。近期,国际清算银行(BIS)的工作报告对金融机构应用人工智能的监管框架进行了讨论,中国人民大学金融科技研究所(微信ID:ruc_fintech)对其进行了编译。

作者 | Jermy Prenio ,Jeffery Yong

来源 | BIS 

编译 | 张雅琪

摘要


包括机器学习(ML)在内的人工智能(AI)技术,在改善金融服务交付及运营和风险管理流程上具备巨大潜力。科技现在是金融服务的重要组成部分,会持续推动消费者和金融机构的深刻变革。各国央行也明确会支持金融部门创新及新技术的应用。在此过程中,需要完备的的监管框架,才能优化新技术带来的优势,最小化风险。


引言


普适性的人工智能治理监管框架可被应用于各个行业。近期,部分国家的央行已开始为金融部门制定相关监管框架。在这些框架中,核心主题集中在可靠性、问责制、透明度、公平性和道德的指导原则,其他指导原则还包括数据隐私、第三方依赖和运营弹性。


虽然这些指导原则有助于进一步解释企业在应用人工智能技术时,应该充分考虑的问题,但越来越多的呼声要求金融监管机构提供更具体的实际操作指导。一种可行的方法是,监管机构可以将这些人工智能治理框架的普适性原则做成最佳实践的汇编。


人工智能模型也可以应用于政务监管、风控等传统模型的开发和运营流程,这些监管框架需要涵盖金融机构的董事会和高级管理层具体如何应用AI模型的治理要求。机构需要具备健全的模型验证流程,从而确保建模结果的可靠性。重要的是,监管方需要模型趋向透明化,这不仅是合格风险管理实践的要求,也可以更高效地对模型进行监督审查。此外,现有法律、标准或监管指南涵盖了数据隐私、第三方依赖性和运营弹性,包括模型的使用。


虽然金融机构应用人工智能所面临的大部分问题会与传统模式相似,但角度可能不同。在人工智能模型中,前文所叙述的普适性共同指导原则主要角度是公平。例如,我们需要确保人工智能模型的可靠和健全性,旨在避免因不精确的决定而造成的歧义。此外,我们需要确保AI实施过程中的的问责制和透明度,这些维度包括确定数据主体,了解数据驱动的决策,还要确保具备渠道查询和质疑这些决策。


在人工智能的使用中更加强调公平,这就要求更多的人为干预。监管机构发布的人工智能声明主旨主要集中以下方面:不良结果,导致歧义的非预期偏差等。产生这些现象的原因是人工智能模型中的自动化和缺乏透明度引起。尽管基于真人而非AI模型也可能存在同样的偏见或错误,但真人模型的一个区别在于,真实的人类可以明确地承担责任。然而,应用人工智能可以让我们重新思考机器和人类之间的界限,包括以下因素:(i)金融机构应用人工智能技术的速度和规模;(ii)人工智能算法的技术构造;以及(iii)模型可解释性的缺乏。从金融监管的角度来看,明确组织内负责人的责任,是健全人工智能监管框架的关键,这也同样权衡大规模机器自动化和人力投入、监督之间的利弊。


对于继续定义人工智能的公平性和支持健全人工智能治理方面仍然存在着空间。正如前文提到政策文件中所描述的公平性,会关乎消除歧视性的结果。然而,在部分司法管辖区的消费者保护法中,并没有明确关于歧视或者非歧视的定义。明确目标有助于界定人工智能背景下的公平性,为金融监管机构发布人工智能的相关指南提供法律依据,同时确保金融服务中人工智能驱动的、传统模型驱动的和人类驱动的决策按照同一标准进行评估。


我们要采用均衡的解决方案来应对人工智能带来的挑战和复杂性。这就需要根据人工智能模型所带来的行为和审慎风险,区分对人工智能模型应用的监管和监督处理。对行为和审慎风险有重大影响的人工智能模型将需要受到比那些影响较小的模型更严格的监管和监督待遇。此外,金融机构应用人工智能技术,将对盈利能力、市场影响、消费者保护和声誉产生影响。这种情况就要求监管机构加强协调,特别是对于人工智能在金融服务业的应用方面的监管。


鉴于金融部门关于人工智能治理的共同主题,金融标准制定机构似乎有空间在这一领域制定国际指导或标准。金融标准制定机构在这一领域制定国际指南或标准的空间。当局对如何实施这些共同主题的看法仍在不断发展。在国际层面上继续交流意见和经验,最终可能导致国际标准的制定。这样的国际标准尤其对刚刚开始数字化转型之旅的司法管辖区有帮助。它们也可以作为指导在金融部门内有序部署人工智能技术的最低基准。伴随着在人工智能应用案例的具体方面逐渐出现更具象的监管标准,监管可以提炼这些案例共同的 "最佳实践",供其他地区参考。同时,由于技术趋势在不断发展,基于监管原则的实际应用仍其好处,可以作为最佳实践的补充。


结论


金融机构应用人工智能模型所产生的大部分问题,与传统模式的问题相似,但角度可能有所不同。常见人工智能的问题,包括可靠/健全性、问责制、透明度,数据隐私、对第三方的依赖性和运营弹性都与人工智能和传统模式的使用有关,只有与公平相关的问题才是AI独有的或明确的。


尽管现有标准、法律和指南可用于解决大多数人工智能相关问题。但在公平性方面,还有更多的实践空间。


大多数金融监管机构仍处在制定人工智能治理原则及金融公司指南的早期阶段。这种基于原则的指导可以经受时间的考验,并可以持久应用于技术领域。很多金融监管机构已经开始了与工业界及其他技术利益相关方合作。


目前人工智能治理的具体实践还相对空缺,组织机构很难对人工智能技术的实际应用进行管理。从建立和执行ML模型的技术困难到提供真实可靠的结果,组织机构所面临的挑战是非常广泛的。


人工智能的复杂性要求我们在模型对行为和审慎风险影响基础上,采取有针对性的、协调的管理和监督对策。人工智能模型的应用对当局的行为和审慎目标的潜在影响越大,相关的监管就越严格。


金融标准制定机构可以在人工智能的监管框架领域制定国际指导或标准,国际标准会对刚起步数字化转型的司法管辖区有指导意义,也可以作为指导在金融部门内有序部署人工智能技术的最低基准。提炼实际应用案例的共同 "最佳实践"是有利的,技术趋势发展带来的基于监管原则的实际应用可以作为最佳实践的补充。 


以下为部分文章截图




……

获取完整报告

请后台回复“BIS人工智能”

获取下载链接


END

编辑/张雅琪

审校/袁阳

责编/袁阳


【延伸阅读】

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存