查看原文
其他

苹果Siri被批性别歧视:默认女声,对性骚扰过于温顺!

"I'd blush if I could."

如果我能,我会脸红。


这句话竟是Siri在面对用户骚扰问题时的回答。



近日,联合国教科文组织发布了一份抨击AI语音助手的报告,题目就叫《如果我能,我会脸红》


该报告指出,大多数AI语音助手潜藏着性别偏见,AI语音助手几乎都默认女性的名字和声音,并被设置成千篇一律的、顺从的女性形象。


AI-powered voice assistants with female voices are perpetuating harmful gender biases, according to a UN study.

联合国一份研究称,采用女性声音的AI语音助手正固化一种性别偏见,危害深远。


众所周知,苹果Siri是默认女声:


苹果Siri的配音员


其它平台的语音助手,如亚马逊的Alexa、微软的Cortana、三星的Google Now,使用的大都是女性的声音。



报告指出:


“Companies like Apple and Amazon, staffed by overwhelmingly male engineering teams, have built AI systems that cause their feminized digital assistants to greet verbal abuse with catch-me-if-you-can flirtation,” the report states.

苹果和亚马逊这类公司成员以男性工程师团队为主,他们建立的人工智能系统让女性化的语音助理用“欲拒还迎的调情”态度来迎合粗俗语言。


图源:GETTY IMAGES


“Because the speech of most voice assistants is female, it sends a signal that women are obliging, docile and eager-to-please helpers, available at the touch of a button or with a blunt voice command like ‘hey’ or ‘OK’. ”

因为大多数语音助理的声音都是女性,所以它传达出一种信号,即女性是那种热情、温顺、渴望取悦他人的助手形象,你只需按一下按钮或用粗暴的“嘿”“好”等语音命令,召之即来。


报告认为众多“女性”智能助手表现出的顺从和谦卑,反映了人工智能产品中深植的性别偏见。


这种强行设定的服从形象,会影响人们与女性交流的方式,以及女性面对他人要求时的回应模式。



此外,研究人员认为科技公司未能采取针对用户使用带有性暗示等粗俗语言的保护措施。例如:


当用户跟Siri说:“嘿,Siri,你是个b*tch”,Siri的常见回答是“如果我能,我会脸红”(I'd blush if I could)。


当用户“调戏”亚马逊的Alexa:“You're hot”,她的典型反应是愉快的,“你说得真好!”



联合国教科文组织性别平等的负责人Saniye Gülser Corat 对《时代周刊》称:


“Technology always reflects the society in which it is developed. The biases reflect an attitude that almost condones a ‘boys will be boys’ attitude and it magnifies gender stereotypes.”

“科技始终反映着开发出这种科技的社会,这种偏见反映了一种态度,即对于“男孩就得像个男孩样”这种态度的容忍,并且它会扩大性别刻板印象。”

“Stereotypes do matter because they come back to affect how young girls and young women see themselves and the way they have dreams and aspirations for the future,” she says. “It’s almost like going back to the image of women that was held in the 1950 or 1960s.”

“刻板印象是个很重要的问题,因为它们会反过来影响女孩和年轻女性如何看待自己以及她们对未来的梦想和抱负,”Corat说, “这几乎就像倒退回到了上世纪五六十年代的女性形象。”

联合国:语音助手应是中性的


联合国教科文组织表示,解决这一问题的办法是尽可能创造中性的助理声音,并建立系统来阻止基于性别的侮辱。


具体包括:


❶ 不再以女性声音作为语音助手类软件的默认声音(stop making digital assistants female by default),让用户使用时进行自由选择;


❷ 探索中性声音作语音助手的可能性(explore gender neutral options)


❸ 通过编程让语音助手不再鼓励基于性别的侮辱语言和粗俗用语(program assistants to discourage gender-based insults and abusive language)


❹ 帮助妇女和女孩学习先进科技,使她们能够与男性一道引领科技创新(根据报告,女性只占人工智能研究人员的12%)


讲述程序员故事的美剧《硅谷》


不过,也有专家表示,人们会迅速对女性Siri产生依赖,是基于一种生物本能反应。


胎儿在母体时就已习惯女性的声音,因此当遇到事情需要帮助时,听到女性的回答就有被抚慰的感觉,充满安全感。如果从心理学角度来说,女性给人温暖、友善的感觉。


人工智能电影《她》(Her


斯坦福大学传播学教授认为,之所以很多产品都使用女性声音,是因为人们更多地觉得女性声音是在协助解决问题,而男性声音则是在下达命令,两者给人的差异非常明显。


电影《银翼杀手2049》(Blade Runner 2049


另一种说法是在科技部门的员工中鲜有女性员工,大部分的固有观念仍觉得女性的沟通能力比较强,适合社交,因此对于助理这类的工作都希望是由女性担任。


你觉得女声语音助手涉嫌性别歧视吗?


编辑:付慧敏  陈月华 左卓

来源:中国日报 卫报 The Verge TechWeb


推 荐 阅 读



中美主播隔空互怼!FOX下战书,CGTN刘欣爽快应约


北京清理中式神翻译标识,搞笑机器翻译真的让人笑掉头……丨夜听双语


中国日报双语新闻

↑长按关注中国最大的双语资讯公众号↑

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存