查看原文
其他

金融监管机构在治理算法信用评分方面的作用

FinTech研究所 人大金融科技研究所 2023-03-29

算法信用评分的使用给贷款人、监管者和消费者带来了机遇和挑战。本文对人工智能在借贷中使用的危险性进行了分析,如使用算法信用评分的借贷市场中的歧视问题。由于目前数据保护法和金融消费者保护法的范围,金融消费者对人工智能模型结果的控制有限,且对算法信用评分使用替代数据的监督很少。中国人民大学金融科技研究所(微信ID:ruc_fintech)对论文的核心内容进行了编译。

作者 | Nydia Remolina

来源 | SMU Centre for AI and Data Governance Working Paper 2/2022

编译 | 孔煜


一、简介


信用评分是贷款人决定向金融消费者提供信贷的一个基本因素。传统上,信用评分模型使用统计和算法来分析作为决策过程输入的信息。近年来,随着海量数据的出现,人工智能(AI)包括机器学习(ML)和深度学习(DL)等更先进技术的使用,以及新的竞争者使用替代数据为这些AI模型提供数据,信用评分是金融领域中因使用金融技术(FinTech)而改变的众多领域之一。随着ML和DL的进步及其在借贷市场的应用,学术文献在使用AI的承诺和危险之间展开了辩论。

 

一方面,ML和DL在预测违约概率方面可能会更好。然而,这些更复杂的算法也会加剧使用算法来评估潜在债务人的信用度的一些问题。

 

本文认为,更好的算法和无偏见的数据并不能解决使用人工智能进行信用度评估的危险性。金融监管机构和数据保护机构需要改变他们对算法信用评分的方法,以有效保护消费者和这些模型的最终用户。为了发展这一论点并提出一些解决方案,本文对在贷款产品中使用人工智能的危险性进行了完整的概述。这些危险是公平借贷、数据保护法的现有范围、缺乏传统上被排除在外的群体的数据、监管套利以及替代数据的使用。

 

为了解决算法信用评分的问题,本文认为,金融监管机构需要通过实施以下建议来改变其在算法信用评分治理中的角色:

(1)对算法信用评分模型的测试监督程序将有效促进公平贷款;

(2)建立对算法结果的知情权,包括意见数据和推论,以促进数字自我决定。这一解决方案赋予了受算法信用评分影响的消费者权力,使他们可以验证和挑战人工智能模型做出的决定;

(3)在金融机构和其他使用算法信用评分的贷款机构之间建立公平的竞争环境;

(4) 将沙盒作为贷款人的测试环境,在控制环境中创建传统上被排斥的群体的数据;

(5) 在金融监管当局控制的环境中,通过开放金融计划促进信用评分的数据共享和数据可移植性倡议。这些建议为解决算法信用评分的挑战提供了一个实用的方法。


二、算法信用评分的问题


2.1 公平借贷

金融监管中的公平借贷概念是指防止借贷市场的不公平歧视。这个词包括差别待遇理论和差别影响理论。因此,歧视问题在借贷市场上并不新鲜。几十年来,学术界、政策制定者和监管者一直在研究这方面的歧视问题。信用评分系统已经获得了来自各种媒体、债务人联盟、消费者法律组织等的大量批评。即使信用评估只由贷款官员进行,歧视的风险仍然存在,但在算法信用评分的竞争中,它的内涵和复杂程度不同。贷款人和贷款申请人之间的信息不对称增加了社会中存在的偏见。与人类决策相比,算法并不具有类似的直观性;它们的运行速度、规模和复杂程度都有悖于人类的理解,对不需要类似于历史上受保护群体的人群进行分组和行动,并且在潜在受害者从未意识到自动决策的范围和影响的情况下进行。因此,个人可能从未意识到他们处于不利地位,因此缺乏根据非歧视法提出申诉的起点。


作为算法输入的数据可能是有偏见的,或者模型也可能无意中造成偏见。此外,ML创造了更多的个性化预测,由于对具有类似特征的个人的不同待遇,给潜在的歧视提供了更多空间。此外,与传统形式的歧视相比,自动歧视更加抽象,不直观,微妙,无形且难以发现。


算法不是人类偏见的解决方案,因为这些模型可以被开发、审查和监测,以避免某些形式的歧视,然而这样的结论并不准确。因为算法信用评分中的公平贷款问题,特别是在使用ML、DL、大数据和替代数据的新浪潮中,由输入(数据)中的偏见扩大。使用人工智能,特别是替代数据,可能会扩大那些已经存在的偏见的影响。


2.2 缺乏对信用评分的控制

目前,在大多数司法管辖区,个人对自己的评分方式几乎没有控制权,更没有能力对不准确、有偏见或不公平的信用评估提出异议。目前,算法信用评分的终端用户即贷款申请人可以质疑贷款申请过程中的最终决定,但由于商业秘密或数据保护法的限制,他们无权知道算法是如何运作的。例如,一些司法管辖区不认为结果是个人数据,或其他司法管辖区认为这些结果是意见数据。因此,金融消费者无权要求披露这些结果。


一些消费者保护法规定,金融机构应让金融消费者知道作为其基础的信用评分。一些消费者保护法规定,金融机构应让金融消费者知道作为决策依据的信用评分。例如,根据2010年通过的华尔街改革法案,如果他们因为信用评分而被拒绝贷款、信用卡或保险,他们有权获得一份免费的具体信用评分报告。


在英国,自从欧盟关于隐私和数据保护的法律(GDPR)在2018年落地后,所有信用参考机构必须免费提供法定报告。通过这些机构的网站来做,非常快速和方便。然而,这意味着只能是获得一个基本的报告——而不是一个完整的的信用评分。如果你想知道更多的细节,你可以选择按月付费购买一个在线的信用监测服务,它提供实时访问你的信用报告,并在你的信用报告出现问题时提供提醒,当你的信用文件被搜索或改变时提供警报。


尽管如此,这种方法并没有给个人任何控制权,让他在特定情况下挑战决定。同样重要的是,这个问题阻碍了金融消费者设计战略来提高他们的信用评分。特别是在使用大数据和替代数据时,算法在不向个人披露过程的情况下进行推断,将不可能实施不同于猜测的战略来改善信用评分。这种缺乏授权的情况与作为金融监管机构目标的消费者保护和数据保护法背景下的自治目标相矛盾。


2.3 缺少数据和存在有缺陷的数据

一些研究表明,贷款审批的差异和获得融资的低水平不仅与算法的公平性或偏见有关,而且与少数民族和低收入群体的信用记录中的数据较少有关。因此,信息的差异推动了信贷准入的差异和信贷的错误分配。这意味着,当这些数据被用来计算用于制作的信用分数时。一个单薄的信用记录本身就会降低一个人的分数,因为贷款人喜欢更多的数据而不是更少的数据。但这也意味着,一两个小污点,如过去多年的拖欠付款,会对一个人的分数造成巨大的损害。


另一个相关的问题是有缺陷的数据。少数民族和低收入家庭的信用分数中存在更多的误导性数据。美国少数民族的分数在预测违约风险方面比非少数民族借款人的分数低5%。同样,收入最低的五分之一的人的分数比收入较高的借款人的分数预测性低约10%。真正的问题出在数据上。信用档案非常有限的人,他们很少贷款,如果有的话,也很少持有信用卡,更难评估其信用度。对于那些在记录上有一两个瑕疵的人来说,情况尤其如此。由于少数族裔借款人和低收入者更有可能有薄薄的或不完整的信用记录,他们的信用评分就不那么准确。


三、目前金融领域的人工智能治理方法未能解决的问题


3.1 人工智能监管

在过去十年的大部分时间里,公众对数字技术的关注都集中在个人数据可能被滥用的问题上。随着公司越来越多地将人工智能嵌入其产品、服务、流程和决策中,人们的注意力正在转移到数据如何被软件使用--特别是被复杂的、不断发展的算法使用,这些算法可能诊断癌症、驾驶汽车或批准贷款。欧盟再次引领潮流(在其2020年的白皮书《论人工智能--欧洲的卓越和信任方法》和2021年的人工智能法律框架提案中),认为监管对于开发消费者可以信任的人工智能工具至关重要。


这种歧视风险促使欧盟委员会在其最新的人工智能法规提案中,将人工智能信用评分和人工智能支持的信用评估列为 "高风险应用"。这与广泛的合规要求以及监管监督和重大经济处罚目录相辅相成。


委员会已经隐约迈出了监管信用评分机构的第一步。虽然这些机构在全球范围内很普遍,但它们绝不是在所有欧盟成员国都存在。拟议的法规增加了另一层监管。然而,该方法也是横向的,而不是部门性的。这与它没有整合信用评分的一揽子共同风险(这些风险包括从数据收集、信息和更正权到可解释性和反歧视),而只关注恰恰是通过人工智能评分可能产生的对基本权利的风险这一事实相符。


3.2 产品监管

对消费金融产品条款的限制或 "产品监管 "适用于贷款人,以保护金融消费者免受歧视。确定贷款人定价是否构成歧视的主要方法是审查决策输入。贷款人并不能观察到关于借款人财务状况的一切,因此可能会求助于未观察到的东西的代用指标。根据美国公平贷款法,法院裁定,即使它们导致少数群体的结果更差,只要贷款人能够证明这些变量有合法的商业必要性贷款人就可以使用这种代理变量。


与公平借贷条例的规定相反,法律应该寻求放宽数据的使用,允许所有可能的和相关的数据来源被纳入。这样做自然会减少不公平的歧视,并通过确保信贷歧视是基于真实的信用度指标来改善金融部门的结果。


四、解决方案


4.1 强制性事后测试

在使用算法信用评分的过程中,能够有效执行公平贷款的解决方案是,贷款人可以定期进行强制性的事后测试,以测试该模型是否产生了歧视性做法,如果是,则采取适当的措施来纠正这一过程。正如我在第4节中提到的,监管机构传统上一直关注算法的输入或偏见,但这种方法并不能解决算法信用评分中的歧视问题。


4.2 赋予受人工智能驱动的决策影响的用户权力

这项建议包括创建一个新的数据保护权利,即 "合理推断权",以帮助弥补目前由 "高风险推断 "造成的责任差距,这意味着从大数据分析中得出的推断会在贷款申请中损害金融消费者。


对所有贷款人(不仅仅是金融机构)适用相同的规则,且有必要消除借贷市场的监管套利。如果没有一个公平的竞争环境,就不可能保护金融消费者和金融部门的稳定。此外,必须注意的是,在数字信贷市场上,违约者的黑名单率特别高,但也是数字信贷。一些研究表明,数字贷款机构甚至没有完全报告积极和消极的还款行为,尽管现有的法规要求贷款机构这样做。这些差异可能是由于监督和管理在线贷款市场和传统贷款机构,特别是银行部门的不同当局所造成的。


为了执行全面报告,从而加强对消费者的保护,可以要求出借人通过短信等方式告知数字借款人所分享的所有信息,与现状相反,这不仅包括告知负面报告,还包括告知正面报告。强制执行全方位的报告也会对贷款人产生积极的影响,因为当借款人确信正面报告会被发送到信用局时,他们可能更愿意偿还贷款。此外,重要的是要确保数字借款人能够轻松自由地获取向传统信用局报告的整体借款历史,这样借款人就可以控制放款人对已报告内容的主张。


4.3 将沙盒作为一种监督工具

解决缺乏数据和噪音问题的一个可能策略是,金融公司进行实验,向信用分数相对较低的人批准贷款,实际上创造了更丰富的数据集。为了减轻系统性风险和保护金融消费者,这些实验可以在监管沙盒内进行。这也是一些金融科技公司正在做的事情:发放贷款,然后学习。


此外,沙盒方法将使监管人员和监管机构能够进行更多的研究,以了解为什么数字信贷市场的违约率相当高,从而为设计量身定制的措施以降低违约率提供了途径,这是可持续数字信贷市场的必要条件。


五、结论


更好的算法和无偏见的数据并不能解决使用人工智能进行信用度评估的危险性。金融监管机构和数据保护机构需要改变他们对算法信用评分的方法,以有效保护消费者和这些模型的最终用户。为了发展这一论点并提出一些解决方案,本文对在贷款产品中使用人工智能的危险性进行了完整的概述。这些危险包括公平借贷、目前的数据保护法的范围、缺乏传统上被排斥的群体的数据、监管套利以及替代数据的使用。


为了解决算法信用评分的问题,本文认为金融监管机构需要通过实施以下建议来改变其在算法信用评分治理中的角色:

首先,对算法信用评分模型的测试监督程序将有效促进公平贷款;

第二,建立对算法结果的知情权,包括意见数据和推论,以促进数字自我决定。这一解决方案赋予了受算法信用评分影响的消费者权力,使他们可以验证和挑战人工智能模型做出的决定;

第三,在金融机构和其他使用算法信用评分的贷款机构之间建立公平的竞争环境;

第四,将沙盒作为贷款人的测试环境,在控制环境中创建传统上被排斥的群体的数据;

最后,在金融监管当局控制的环境中,通过开放金融计划促进信用评分的数据共享和数据可移植性倡议。这些建议为解决算法信用评分的挑战提供了一个实用的方法。


以下为文章部分截图


……

获取完整文章

请后台回复“信用评分”

获取下载链接

END

编译/孔煜

责编/张谦

排版/荆媌



【延伸阅读】

○ 金融稳定进程中的监管科技:分类、关键方法、应用和未来方向

○ 移动支付或成为普惠金融的良方

○ 全球科技银行的行业格局

○ FSB | 加密资产的金融风险评估

○ 关于CBDC的安全性



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存