查看原文
其他

技术双刃剑对金融普惠的影响

FinTech研究所 人大金融科技研究所 2023-03-29

技术发展一定能促进金融的普惠吗?《家庭金融中的技术创新和启示》 (Technological Innovation and Discrimination in Household Finance) 认为技术本身是中性的,但是数据和代码编写过程有人的参与,这就导致我们难以判断最终技术创新是促进了金融普惠还是引入了新的歧视,本文根据现有文献和调查,将技术创新的优劣进行了比对,并针对技术创新所产生的歧视进行了分类。中国人民大学金融科技研究所(微信ID:ruc_fintech)对报告核心内容进行了编译。

来源 | NBER
作者 | Adair Morse & Karen Pence
编译 | 杨世祺


关于本文研究内容的思考


技术本身是中性的,然而由于技术的使用者(家庭、金融机构、监管)之间存在信息不对称和利益冲突,技术最终变成了不同主体之间博弈的工具。

在传统观念中,我们倾向于认为技术的基本能够帮助企业更精准地识别客户群体,并为其个性化地订制金融产品;然而本文提出了一个截然相反的观点,金融机构作为使用技术的主体,同样可以利用算法黑箱的复杂性,以及统计数据的偏差,来最大限度地获取贷款需求大且还款能力强的用户群体,甚至借助通过个性化定制产品的方式来实现价格歧视,使得信贷配给更为隐晦。

因此,监管部门针对技术引发的金融变革的监管,将成为决定技术如何影响金融普惠发展的重要一环。


文章摘要


在决策中,用算法取代人的判断力,可以减少基于个人偏好差异的歧视,同时新的建模技术的应用,将以前被排除在市场之外的家庭重新纳入到金融服务的目标客户中。然而,算法可能会因人类参与了开发过程而表现出偏差,其不透明度和复杂性可能会在金融服务提供的几个方面(包括产品推荐、定价和信用风险评估)为选择歧视提供便利且更不易被察觉。我们的分析结论是,技术金融创新对歧视的影响是复杂的,这取决于政策制定者、法院和公司未来做出的选择。

文章引言


技术可以更容易获取针对金融产品和服务的适用性和定价等信息,从而使信息竞争环境变得公平。然而,技术在减轻歧视方面的作用并不一定会有积极的结果。技术本身并没有敌意,但也不能幸免于歧视。一些家庭比其他家庭更容易获得技术,也更容易掌握技术,因此即使是创新也可能强化排斥模式。技术可以让公司非常精确地向消费者推荐和提供金融产品,这增加了家庭拥有不同的信息集的差异,甚至增加了不同家庭面临不同价格的可能性。金融服务提供商通过算法做出的决策包含了数千个变量,尽管算法没有固有的偏见,但它们可以通过开发过程中使用的数据集和开发团队的偏见,将根植于更广泛文化中的偏见纳入其中。
 
本文汇集了金融科技如何影响歧视的这些好处和产生的摩擦。证据表明,技术是一股强大的力量,可以减少源于人类自由裁量权的歧视(经济学术语中的“基于偏好的”歧视)。但是,技术对歧视的净改善效果并不明显,而且在很大程度上取决于针对算法使用的法律和监管问题,经济学家称之为“统计”歧视。如果说技术对歧视是正面的还是负面的是贯穿我们这一章的主线,那么我们的总体贡献在于识别可能导致歧视的技术实现,特别是关注金融服务提供商和家庭在人类自由裁量权、算法决策以及创新和包容方面的互动。我们确定了以下的歧视途径:人类参与设计和编码算法,训练数据集中嵌入的偏见,基于代表受保护类别成员资格的变量对客户信用评分的做法,特别是通过数字足迹和移动数据,统计歧视的做法,以及描绘购物行为。
 
我们的章节在很大程度上建立在其他学者的著作之上,他们考察了歧视的各种背景或具体方面。我们在进行过程中重点介绍了这些工作。我们的贡献在于融合和分析各种观点,以及权衡了在金融服务领域应当支持还是反对科技。在这个过程中,我们洞察到技术如何极大地改变了歧视在金融服务业的表现方式。

技术改善的歧视性自由裁量权



从历史上看,贷款人在提供金融服务时表现出的模式似乎与对特定类型个人的基于品味的歧视一致,即使按照这些偏见行事会导致较低的利润(Charles and Hurst, 2002; Bayer, Ferreira, and Ross, 2017; Alesina, Lotti, and Mistrulli, 2013; Deku, Kara, and Molyneux 2016; Dobbie, Liberman, Paravisini, and Pathania, 2018; and Bartlett, Morse, Stanton, and Wallace, 2019) 在Becker的理论中,基于偏好的歧视会被市场力量所取代。然而,如果市场不是完全竞争的,或者如果与歧视员工相关的放弃的利润相当小,基于偏好的歧视可能会持续下去。这种类型的歧视特别可能出现在决策者拥有自由裁量权的环境中。

通过更广泛、更低成本地提供有关金融服务的信息,以及限制似乎促进歧视的面对面互动,科技有可能限制自由裁量性歧视。例如,Scott Morton, Zettelmeyer, and Silva-Russo (2003)发现,当面进行销售谈判时,黑人和拉丁裔购车者支付的价格高于白人购车者,但在互联网上进行谈判时并不是这样。

当人类完全被排除在谈判之外时,决策就变成了算法,这已被发现在许多情况下减少了代价高昂的歧视性自由裁量权。例如,Kleinberg, Lakkaraju, Leskovec, Ludwig, and Mullainathan (2018)表明,机器学习算法在预测哪些被告会跳过下一次出庭或在保释期间犯罪方面优于人类法官,而且这样做不会增加保释概率的种族差异。在贷款领域,Dobbie, Liberman, Paravisini, and Pathania (2018)表明,如果英国的一家高成本贷款机构使用基于机器学习的算法而不是依赖贷款审查人员的判断来做出贷款决定,它将增加利润并减少偏见。Bartlett et al. (2019) 发现,算法贷款人向白人和黑人/拉丁裔借款人收取的利率之间的差异低于传统贷款人,并且算法贷款人在抵押贷款拒绝率方面没有差异。

技术带来的歧视性自由裁量权



然而,技术并不总是消除自由裁量权,因为人类仍然参与到技术过程中--无论是通过平台中同行输入的角色,还是通过编码。人类参与科技提供的金融服务的新模式,将一些歧视的断层从银行和信贷员的自由裁量权转移到了编码和人群上。

P2P平台提供了一种环境,让人类仍然参与到一个由技术引发的市场中。就像实体贷款一样,当在线平台成为(由同行投资者)进行人类决策的信息门户,并包括图片和姓名时,自由裁量权会使决策偏向于品味偏好和群体偏见。例如,Edelman, Luca, and Sverisky (2017) 发现,Airbnb上名字明显是非洲裔美国人的申请者不太可能获得批准。在借贷背景下,Ravina(2019)研究了平台proplom.com使用借款人照片的情况。她发现,有吸引力的借款人更有可能获得贷款,也更有可能违约。在线平台没有什么动机来控制这种行为,因为提供图片和姓名似乎让消费者在参与与陌生人的交易时获得了更多的信任(Edelman and Luca,2014,Doleac and Stein,2013),还因为通信体面法案(Communications Decency Act)可能会保护提供商免于承担责任(Edelman and Stemler,2018)。

Caliskan, Bryson, and Narayanan (2017) 对有偏见的数据可能导致的偏见进行了系统研究。他们发现,在互联网文本上训练的单词联想算法更有可能将欧美人的名字与令人愉快的属性联系在一起,如“健康”和“诚实”,将非裔美国人的名字与令人不快的属性联系在一起,如“贫穷”和“失败”。这些算法还更有可能将男性名字与有关职业的词汇联系起来,将女性姓名与家庭词汇联系起来,并将某些类型的职业与性别联系起来。例如,他们指出,在他们发表论文的时候,谷歌将“O bir doktor. O bir hemşire.” 翻译为 “他是个医生,她是一名护士。” 然而土耳其语代词O没有性别。

其他算法可能表现不佳,因为它们是针对非代表性数据进行训练的。Buolomwini and Gehr (2018) 表明,使用机器学习技术开发的面部识别软件在对女性和深肤色个体的性别分类方面不太准确。他们检查的三个分类器对于浅色皮肤的男性面孔的错误率不到1%,对于深色皮肤的女性面孔的错误率在20%到34%之间。作者指出,在一些用于训练软件的数据集中,深色皮肤的面孔似乎较少出现。他们还引用了Roth(2009)的发现,即默认相机设置设置为曝光肤色较浅的人脸。同样,Blodgett and O’Connor (2017) 表明,语言识别软件在识别用美国英语方言写成的较短长度的推文(在他们的论文中被称为非裔美国英语)方面不那么准确。

针对定价的算法决策



定价是歧视的沃土。个人为金融服务支付的金额差异很大,即使是同一天在同一市场发放的同一笔贷款(Bhutta, Fuster, and Hizmo, 2019; Alexandrov and Koulayev, 2018)。在这一变化中,女性和黑人/拉丁裔男性的贷款利率似乎高于白人男性(Woodward and Hall, 2012, Bartlett et al., 2019) 。金融危机过后,针对抵押贷款机构的集体诉讼和执法行动提供了大量证据,证明可自由支配的定价政策歧视黑人和拉丁裔借款人。

这种定价差异之所以持续存在,部分原因是许多人很少进行比较--购买金融服务产品,以及一些市场的竞争比其他市场更激烈。Alexandrov and Koulayev (2018) 指出,大约一半的抵押贷款借款人在申请抵押贷款之前不会购物。Bhutta, Fuster, and Hizmo (2019)发现,支付较低的抵押贷款利率与借款人是否考虑了多个贷款人或咨询了抵押贷款网站有关。在他们的论文中,这种购物行为部分解释了为什么收入、财富和信用评分较低的借款人支付更高的抵押贷款利率。尽管这些特殊的特征不是受保护的阶层,但Woodward and Hall (2012)表明,有限的购物是黑人和拉丁裔借款人支付更高抵押贷款经纪人费用的原因之一。

针对金融广告的算法决策



公司总是有动力为不同的市场量身定做他们的广告内容、目标定位和投放方式。在这一节中,我们将讨论技术如何改变这一竞争环境,以及这些变化如何与现有的歧视法律相互作用。埃文斯和米勒(2019年)对这些问题的公平贷款影响提供了更全面的处理。

来自抵押贷款广告的证据突显出,即使在技术出现之前,传递给目标受众的信息也存在差异。Perry and Motley(2009)表明,优质借款人是金融机构争取的首要目标客户群体,实际数据也表明他们更有可能会看到那些提供详细信息的广告,帮助他们做出更好的财务决策,而那些次级借款人看到的信息,却更有可能诱导他们的恐惧。

小结:技术可能会产生歧视的五个方面



  • 人类参与设计和编码算法可能会导致歧视;

  • 偏差可以嵌入到训练数据集中;

  • 根据与受保护类别成员相关的变量(包括现在无处不在的数字足迹和移动数据)对客户的信誉进行评分的做法,有可能导致歧视;

  • 描述购物行为的统计歧视做法可能会导致歧视,即使公司的统计歧视纯粹是出于利润最大化的经济学考虑;

  • 科技广告的做法,包括广告定向和广告投放,可能会导致歧视。


以下为部分报告截图



……

获取完整文章

请在后台回复“技术双刃剑

获取下载链接


END



编辑/杨世祺

责编/齐庆武

【延伸阅读】

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存