戴昕:《算法霸权》的真正启发是什么?
日前,《周泰 · 书声》第九期之《算法霸权》品读会在北京周泰律师事务所举办,现场邀请了中国政法大学数据法治研究院教授张凌寒、中国人民大学法学院副教授郭锐、北京大学法学院长聘副教授戴昕、北京大学法学院副教授胡凌、中国人民公安大学法学院副教授苏宇、北京航空航天大学法学院助理教授赵精武、北京周泰律师事务所高级律师储江、北京大学法学院副教授江溯共同探讨、解读这本《算法霸权》!
本文整理自品读会上品读人戴昕副教授的发言内容,供读者参考。
全文共: 3724字 预计阅读时间: 10分钟
戴昕
北京大学法学院长聘副教授
谢谢江老师,很高兴今天有这个机会跟大家谈谈我对书的基本看法。这是很好的一本书,刚才前面老师也介绍了,刚刚开始出来的时候是很轰动的。虽然像刚才江老师讲的,这个书已经出来五年多了,但是好的书提出的问题能够有持久的讨论价值。我个人认为,书中提出的与算法有关的问题,值得中外学界一直讨论至今。即使像刚才张老师提到,一些问题已经获得了初步的监管回应,但这些问题都没有因为监管出现就完全解决了。另外,我比较喜欢这本书的写法,用了很多有意思的故事,无论是专业还是非专业的读者,从头到尾看下来都很顺畅。
但在此之上,我想谈一些其他看法,不见得是完全积极的评价。这个书确实很好,帮助我们开拓了眼界,但其中对很多问题的处理,未必对我们今天在中国语境中必定有特别直接的借鉴意义。
首先,这个书是在2017年的时候出版的,在当时确实有一定的先进性,因为2016年以后,实际上主要是川普当总统和英国脱欧之后,整个欧美知识界、公共舆论界和政策实务界对大型科技公司使用算法进行商业活动并参与公共治理的看法,总体上有了非常大的转变,此前相对积极的态度越来越少了,基本上整体进入消极心态。在此之前会讲算法来推动所谓的共享经济,极大地提升了社会效率,但2016年发生的重大政治性公共事件,就是川普当总统和英国脱欧,到底赖谁,虽然实际上并没有确凿的证据,但是公共和知识话语层面,西方把这个东西赖给算法,赖给平台,由此开启对算法的全面指控, 第一是导致政治崩坏,第二是经济垄断,第三当然毫无疑问是加剧了社会歧视。这些问题到今天仍然是热点的话题,因此像这本书,尽管过去了好几年,我相信在未来一段时间之内仍然会很热。但是这些问题,至少从我们中国知识界的角度来看,我自己的看法,都很重要,所以对于每一个关心这个领域问题的研究者来说,这本书必须看,必须知道这些事;但同时,我不认为所这些问题可以直接搬到中国语境里,说我们中国目前也必须用相同的心态、眼光和手段去寻找并解决这些问题,必须做出相同的姿态。这本书以及这类西方作品关注的问题,以及对问题的关注视角,我觉得还是有一定的西方特殊性。
举例来说,书里面讲的算法存在的核心问题,可以简单归结为两点,即在两个层面上,算法为什么不好。第一,基于数据分析作出预测的算法,不好用,老出错。这是第一个抱怨。第二个抱怨就是算法决策不公平,容易带入偏见。这两种抱怨,我们今天在中国也经常听到,可能读了外国人写的这些书,更有可能强化我们对技术的这种负面看法,以及不信任。
但我觉得,这些问题虽然客观上都存在,但看待这些问题时或许还要有一些动态和比较的视野。算法技术当然远不是完美的,以社会现象为对象的计算从原理上讲就面临诸多困难,所以不好用是正常的,一定会总出错,但不能认为在所有的边际上都没有改善空间,而很多边际上改进实现后,就很可能带来相当可观的实用价值。
第二,至于歧视或者不公平,我想,在每个社会中,人们都是非常关注公平的,大家都非常不喜欢偏见。但是,在西方当代有关科技或算法的这些讨论中,他们一直极端关注或担忧的算法偏见或歧视问题,其实有比较特定的文化指向,即种族歧视。这和我们社会当中存在并且大家关注的各式各样的偏见问题,比如说地域偏见、年龄偏见、疾病歧视甚至性别歧视等,恐怕都还不大一样。我们社会生活中的这些偏见和歧视都是很不好的现象,这点毋庸置疑,如果被算法技术放大或固化了,也是很严重的问题。但西方对种族歧视问题的原罪式心结,以及由此而产生的对算法歧视(或者所谓自动化歧视、自动化不平等之类)风险的这种极端敏感和关切,我觉得离我们的语境还是有点距离。对西方知识界自身而言,这种敏感可以说是很可贵的道德自觉。但是从我们中国人的角度来看,我们恐怕没必要在姿态上简单去模仿西方,把算法的所谓歧视风险在有关技术政策议题的讨论中,摆到如此之高的位置上,由此超越甚至压制我们对算法的其他合理关注,特别是其对社会经济和公共治理的发展可能起到的巨大推动作用。
所以,我想说,这个书很有意思,讲的东西都很有趣,但如果要做深度理解的话,我觉得还是要结合文化语境和公共知识语境。
第三,我还想跟大家分享的一个视角方面的问题是,我们今天算法决策,第一不好用,第二不公平,但作出这些评价,也需要注意比较的参照基准。我们总是要做决策,私人的决策、商业的决策、社会的决策、公共的决策,而我们有不同的决策方式,基于人的决策,还是用机器决策,至少辅助决策,甚至有时用机器替代人的决策。当我们说一种决策方式不好的时候,总是有一个参照基准。说一个东西好或者一个东西不好,永远是一个相对意义上的比较。
当我们抱怨算法决策不准确,有偏见,同时还不透明的时候,应该想想,人的判断和决策一定更可靠吗?一定是更少偏见的吗?一定更透明的吗?这其实都不一定。关于算法决策的可靠性和实用性,这个其实是一个比较大的问题,一直以来有争议。有人一直在说这个东西很好用,但是好用到什么程度,是不是说我们真的获得足够多的收益,这个一直以来确实缺乏足够有说服力的证据。
但在这个书出来之后,2018年到2020年,有一些新的研究,已经尝试比较算法决策和人类决策。比如说在刑事政策领域,法院做取保决策,实际上有非常好的研究展示,人类决策和机器决策比较,并没有优势。例如,为了达到相同的保护社会、控制犯罪率的效果,通过机器决定哪些被告人获得保释,哪些不获得保释,机器是可以让更多人获得保释的。反过来,在投入相同资源保持羁押水平的情况下,让机器来决定谁获得保释,谁不获得保释,由此导致的保释期间犯罪或不按时出庭受审的风险,是比由人来决定更低的。换言之,人和机器在作出这种决定的时候,其实都需要预测什么样的人获得保释会带来比较大的社会风险,而人的预测很可能不如机器准确(关于人的认知和决策相对于机器的局限性,很推荐有兴趣的朋友去看一下卡尼曼、孙斯坦和希伯尼去年出的一本新书《噪声》)。
而至于偏见或歧视的问题,前面说的相同的研究指出,机器预测不仅比人类预测更准确,而且这种更准确的预测,对于少数族裔被告人的价值会更大,例如,相比于人类法官的决策,机器决策会让更大比例的少数族裔被告人获得假释。此外,当代有关歧视的很多制度,寻求用所谓积极补偿的方式应对歧视带来的不公平的后果。例如知道一个群体历史上一直面临歧视性待遇,因此要想办法补偿他们,甚至给到他们占便宜,才可以让社会更公平。但这种不公平怎么发现、怎么证明呢?实际上,借助算法,不但可以发现已有的不公平,同时也可以预测未来的不公平影响或后果,这时要进行积极补偿,就会更有针对性,也更有效率。
最后还有一个就是透明的问题。我们总是抱怨算法不透明,但实际上很大程度上,人进行决策是更不透明的。首先,我脑子即使歧视你,我肯定要隐藏自己的想法,你即使看出来,感觉到,但未必能证明。这也是传统的反歧视法实践中,有时要求证明法律或政策有歧视性意图,操作起来难度非常大,要搞一大群律师关在会议室里看数不清的书信来往,电子邮件等等,就是为了找那么一点点蛛丝马迹,谁说话说漏了嘴,流露过真实的歧视意图。其次,或者说更重要的是,很多时候,人的歧视是自己意识不到的,我即使是出于歧视和偏见对你作出了一些判断或决定,你要问我为什么这样做,我给你的解释一定不是因为我歧视你,并且我甚至可能真诚地相信,我自己真的没有歧视。这也是心理学家很早就告诉过我们的,我们在对外解释自己的行为时,作出的解释永远比我们实际有能力解释的要更多。但机器的歧视,虽然总有所谓算法黑箱的说法,但至少在算法设计的一些环节,例如选用训练数据,设定优化目标,等等,如果有歧视性因素或数据偏见存在,通过审计是能够发现的。
所以,算法决策毫无疑问有很多风险,但像刚刚凌寒老师说的,很简单,学校招生,你是希望考官看你面相决定是否录取,还是希望大家一起考试,考一个分数,无论这个分数多么不科学,多么不能用来代表一个学生的全面素质。类似的,今天在政府决策当中,你想一想,如果说你去办一个事情,这个事情完全是一个官僚随心所欲说了算,还是说你给他一套自动化决策的过程,你相对来讲会更放心。
总结而言,这本书无疑是非常好的,值得所有人读。但在读过之后,我们今天其实下一步更重要的研究,是真正在具体场景当中,通过比较,思考什么样的决策方式是最合适的。有时机器决策更优,有时人类决策更优,有时可能需要二者之间的某种配合;但怎么配合才好,这才是我们在今天和未来面临的真正挑战。
直播回看方式
微信长按识别上方二维码
回复【算法霸权】即可回看本次精彩直播
欢迎关注周泰,欢迎点“赞”和“在看”