查看原文
其他

【性别梦推荐】识别、隔离与黑箱:算法技术的性别反思与人文理性

船思 性别梦GenderDream 2024-03-29


文|Jiawei YUAN


随着信息技术和移动互联网的发展,算法技术不断前进,人类步入了一个充满颠覆性和变革性的算法社会(Algorithm Society)。


各大网络平台开始依托大数据技术和算法技术智能计算用户,算法的出现切实地改变了人们的生活。


麦克卢汉认为媒介是人的延伸,那么算法就是新技术时代的人的新延伸。在这个信息过载的社会,算法在极大程度上提高了人们的信息处理效率,缓解了信息过载(Information Overload)的困境,为生产生活助力。


但是算法带来的新技术陷阱常被人诟病。随着算法的发展,算法中的性别问题日益显现。


社会信息化催生的算法技术是一把双刃剑,追求简单高效的算法技术暴露了突出的社会人文问题——技术与人文应该如何平衡?


伦敦大学学院数学教授Hannah Fry指出「数学和技术领域也需要希波克拉底誓言」,呼吁科学家与公众积极反思技术领域的伦理责任与人文价值。


本文重点讨论当代算法技术中的有代表性的性别识别案例,以及其衍生的性别问题。


Photo by Markus Spiske on Unsplash


1


算法技术的性别识别


「算法是为实现某个任务而构造的简单指令集。在日常用语中,算法有时被称为『过程』或『处方』。」[1]


算法旨在通过深度学习,对大量的碎片化数据进行自动化的处理。对于人脸的性别识别的研究,最早见于上世纪90年代。


随着近三十年来性别识别算法不断发展,在目前的性别分类(Gender Recognition)方法中,人脸识别算法处于主流地位。


算法性别识别是建立在分析人体正面图像的基础上实现的。计算机通过采集装置获得图像,将输入的人体图像与建立的数据库进行比对,从而进行性别判断。


目前常见的性别识别算法,有基于卷积神经网络的人脸检测,基于Adaboost的人脸识别算法,FASTA-ELM识别,以及基于PCA与LBP的人脸性别分类,等等。


几种常用的人脸性别识别算法的技术逻辑基本类似。以基于Adaboost的人脸识别算法为例,系统在自然的生活场景下使用,检测步骤分为「人脸检测」「预处理」「特征提取」和「性别分类」四部分」。[2]


首先,人脸检测器抓取肤色信息及五官特征,进一步对检测到的人脸图像进行预处理。


之后,Adaboost作为一种迭代算法开始对不同的分类器进行整合,在排除光照、角度和人脸表情等现实场景的不确定因素后,系统开始对比人脸数据库(大数据集),根据脸部特征进行分区域标记与标定,用分类器对五官图像进行分类识别,最终形成决策分类器,做出性别的判断。


Photo by Rachel McDermott on Unsplash


显而易见,在性别分类的算法系统中,性别结果是一个计算机的二分类问题。


但是在学理上,性别表达与生理性别、被指派性别、性别认同、性倾向等性别因素都是独立存在的,性别不只是二元的男性或女性。


在这种以二元化分性别的算法模型识别中,性少数人群又一次处于尴尬的境地。性别识别算法的判断无法涵盖性少数人群的性别表达(Gender Expression)。


算法分类器依托「生理决定论」,只考虑了生理性别决定的显性外貌特征,简单按照传统父权社会建构的男性气质和女性气质区分性别。


人脸识别性别的现实应用中也存在性别偏见现象。


以现实场景中的广告播放系统的性别识别应用为例,2009年,美国的一款智能广告播放系统,借助算法技术采集人的嘴唇、颧骨等面部的数据,从而判断受众性别与年龄,针对不同性别的受众播放不同类型的广告,为中年男性播放剃须刀广告,为青年女性播放化妆品广告,淋漓尽致地体现了精准营销中的性别固化。


无独有偶,2012年,伦敦牛津街的一个公共汽车站广告牌同样通过性别识别有区别地播放广告。


广告负责人在接受采访时说,希望可以通过区别播放让男性也得到尝到被忽视的滋味。虽然区别播放的意图在于为女性赋权,但仍囿于男强女弱的性别刻板印象。


性别识别问题的本质在于工具理性和人文理性的矛盾,即技术识别的效率指向与性别多元化的冲突。


技术识别的根本目标在于效率最大化和利益最大化,所以算法设计的指令集会将性别问题简化量化,降低自动化处理时机器的「认知负担」和提高「认知效率」。[3]


这与多元的性别议题背道而驰。在未来的性别识别实践中,如何优化算法对性别的包容度,将人的意识揉到算法中,是应注意的重中之重。


Photo by Eleni Afiontzi on Unsplash


2


算法编码中的人文理性


技术本身是中立且理性的,但发明、改造和使用技术的人却不一定是这样的。


通过以上的算法分析,我们无法忽视算法中的性别偏见( Algorithmic Bias) 。


学者李林容否认了算法技术的中立性,认为算法应用是一种有意识的信息「加工」行为,而平台所辩解的技术中性是一种「伪中立性」。[4]


数据的偏见可追溯到人的缺位与偏见。那么,为什么近年来算法技术衍生的性别问题层出不穷?


究其主要原因,或许是在于人工智能算法领域存在职业性别隔离(Occupational Gender Segregation)的现象。


团队内部的性别分布与团队的性别意识有显著相关关系。美国科学史学家伦达・席宾格(Londa Schiebinger)曾说过,科研团队中女性占比越多,那么团队的性别问题意识会越敏感。


而现实的情况如何呢?2020年3月8日,清华大学-中国工程院知识智能联合研究中心、清华大学人工智能研究院与北京智源人工智能研究院,联合发布了人工智能全球女性榜单(Women in AI)。


榜单数据显示,人工智能领域最具影响力学者的性别比例严重失调,具体数据约为9.2:1。


2021年3月11日,联合国教科文组织发布科学报告《争分夺秒,实现更智能的发展》。根据报告数据,人工智能领域中的劳动力女性仅占22%,比例严重失调。


Photo by ThisisEngineering RAEng on Unsplash


这种职业场域的性别割裂可能会加剧算法技术的性别歧视。


算法的规则由设计者所创造,算法就带上了人文性的标签并继承了设计者的性别意识。设计人员内部的性别失衡可能会催生一些传统性别化的科技产物。


例如算法技术支持的智能机器人,具有服务性质的智能语音助手天然地被设置为温柔女声,强化了女性「贤惠顾家」的刻板性别角色;反观辅导青少年数学功课的教育机器人,负责「智慧」和「逻辑缜密」的则是男声配置。


另一方面,算法对用户的数字福祉(Digital Well-being)缺乏关照。


算法的应用存在明显的性别数字鸿沟现象。相关弱势群体不仅没有享受到算法技术的数字红利,甚至受到了数字伤害。


算法技术与数字福祉又是互构的关系,这种数字鸿沟会反过来影响算法系统数据库的精确度和公平性。


算法结果高度依靠数据集的全面性和代表性,针对「数字穷人」的样本量过少或片面都可能会出现数据偏差的结果。


2014年,亚马逊公司开发的简历算法筛选系统被公众发现存在不公正评分现象,倾向于给男性打高分。而公司复盘时发现人工智能训练样本缺乏足够的关键词,在修正数据库后情况有所好转。


所以弥合数字性别鸿沟、提高算法数据库的真实性和科学性迫在眉睫,「技术是工具理性的产物,技术发挥怎样的功效却是由人支配的。技术的工具价值,只有在正确的人文理性、目标价值引导下,才能发挥最佳功效」。[5]


Photo by Alex Kotliarskyi on Unsplash


3


算法治理的反思


算法的可怕之处在于它的隐蔽性。用户并不清楚算法设计的意图、算法决策者收集数据集的标准,以及具体的落地措施等一系列算法实践,学界将这种不确定性称为「算法黑箱」。


从某种程度来说,「算法黑箱」作为一种隐喻,其不透明性代表了权力的强势介入。


算法对人们的嵌入就像是乔治・奥威尔在《1984》中描写的那样,始终有一块屏幕在我们的房间里观察着我们。


算法中体现的性别歧视实际上是权力关系的投射。正如福柯在《规训与惩罚》中所提到的,「规训」和「监视」在算法社会体现得淋漓尽致,算法的隐蔽性进一步强化了监视的作用机制。


在这个过程中,人的主体性消解,更不要说对算法技术进行批判和反抗,「算法权力」(Algorithm Power)这一概念进一步被深化。


优化路径方面,学者张淑玲主张从算法披露、法律规制和社会监督三个思路去提高算法透明机制。[6]


拉康理论提出「凝视」的概念,学者宋素红将这种「看」与「被看」的权力关系衍生到算法技术中,提出算法传播的「编码凝视」。


宋素红进一步思考如何消除算法性别歧视,认为「算法性别歧视的实质是网络空间的技术和性别平等的冲突问题,有效的伦理约束和系统化治理是消除算法性别歧视的关键」。[7]


如果算法不解决「人缺位」的问题,继续反思算法中的价值观,那人与机器健康协同发展的那一天就不会到来。


算法也敲响了用户内心的警钟。被高度信息化的算法模型包围,用户亟需反思周围算法建构的认知模型。


在如今算法泛滥的时代,我们需要加强信息素养能力,警惕过滤气泡,规避信息窄化。


我们如果在使用时不加以辨别,不能辩证地看待算法信息,进行理性使用,就会无限制地复制算法已有的偏见(Reproduce Unconscious Stereotypes)。


我们切忌成为算法技术的附庸,变成单向度的人。


Photo by Markus Spiske on Unsplash


参考文献

[1] 迈克尔·西普塞.计算理论导引[M].段磊、唐常杰等译.北京:机械工业出版社,2015:114.

[2] 马里千,王灿,刘宏.基于Adaboost人脸检测融合五官特征的性别识别[J].华中科技大学学报(自然科学版),2013,41(S1):125-128.

[3] 蒋舸.作为算法的法律[J].清华法学,2019,13(01):64-75.

[4] 李林容.网络智能推荐算法的「伪中立性」解析[J].现代传播(中国传媒大学学报),2018,40(08):82-86.

[5] 李斌.守护技术创新的初心[EB/OL].人民日报, 2016-01-12[2021-11-18].

http://opinion.people.com.cn/n1/2016/0112/c1003-28039581.html.

[6] 张淑玲.破解黑箱:智媒时代的算法权力规制与透明实现机制[J].中国出版,2018(07):49-53.

[7] 宋素红,王跃祺,常何秋子.算法性别歧视的形成逻辑及多元化治理[J].当代传播,2020(05):95-100.


1

END

1


推荐阅读

你了解「双灵」(Two Spirit)吗?

「我消费,故我在」:女性身体消费中的性别迷思

期待、模仿与认同:儿童何以向传统的性别角色靠拢?

跨性别生活和友善相处指南


从蝴蝶公主到漂泊的吉普赛人,TA认为「小女孩」三字已无法将自己定义

走出校园霸凌的非二元性别者

一名非二元无性吸引者眼中的月经:「月经对我没有任何意义」

一次购买文胸的经历,让TA重新思考了自己的性别


一名保守的跨性别男性的初恋、转变和家庭

身为跨性别男生的他,在小学度过了不上学校厕所的六年

考进清华校园的跨性别男孩(上)

考进清华校园的跨性别男孩(下)


如暴雪中萤火虫的跨性别女孩

一对被切下的FtM乳房,让一名跨女开始思考是否迈出第一步

走过被性侵和扭转的青春,世界与她和解

我害怕在同事面前上厕所,因为我是跨性别女性


欢迎扫码联系田倞加入

跨性别议题交流群



关于跨性别,你想了解的都在这儿


继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存