谷歌问:女人是邪恶的吗?
呼吁搜索引擎不要干预算法结果的人,犯了一个根本性的错误:搜索引擎本来就一直在干预搜索结果。
作者/方可成
在搜索引擎谷歌中键入“are women”(女人是……吗?),搜索框会自动联想,给出几个自动填充选项供你选择。排在第一位的选项是:evil(邪恶),连在一起就是:女人是邪恶的吗?
如果你遵循谷歌的建议,点击了这个自动填充选项,在跳出的搜索结果中,第一页的十个网站都给出了肯定的答案:是的,女人是邪恶的。排在第一的页面说:“每一个女人身体里都有一定程度的妓女成分。每一个女人都带着一点邪恶。”
类似地,如果你在搜索框中键入“are jews”(犹太人是……吗?),谷歌给出的自动联想同样包括“evil”——犹太人是邪恶的吗?如果输入“are muslims”(穆斯林是……吗?),自动填充的选项中有“bad”——穆斯林是坏人吗?
12月初,谷歌的这些带有性别歧视和种族歧视色彩的自动填充结果引发了广泛关注和激烈讨论。5日,谷歌公司的一名发言人表示,他们迅速采取了应对措施,已经将“evil”从女人和犹太人的自动填充提示中去掉。
其实谷歌如果不做应对,也能找到自圆其说的理由。正如公司发言人在声明中所说:谷歌搜索框的自动填充是基于用户的搜索行为,通过一定的算法自动生成的,这些包括“邪恶”、“坏”之类的词是用户大量搜索的结果,并非谷歌公司的有意选择,更不代表谷歌官方的意见。正因为是自动生成,所以结果中可能带有意想不到的、具有冒犯性的内容。“作为一家公司,我们非常看重观点、意见和文化的多元性。”声明中说。
有人认为,既然搜索提示是机器自动生成,就不要进行人工干预了。谷歌将“邪恶”一词从自动填充中去掉,是一种危险的审查行为——今天去掉了这种带有歧视色彩的词,谁知道明天会不会有意去掉一些词来维护某些权势人物呢?
事实上,在今年美国大选期间,谷歌就曾被批评修改自动填充结果以偏袒希拉里。虽然这种批评被证明 (http://chuansong.me/n/364530344263) 是没有根据的,但它确实指向了一种危险的可能性:谷歌这样的互联网巨头,拥有巨大的影响民意的力量。在今天,搜索引擎在很大程度上就是信息和知识的入口。“有事问谷歌或百度”,已经成为人们的习惯。再加上人们的时间精力有限,往往非常依赖自动填充功能,且一般只会点击搜索结果第一页中的链接,因此搜索引擎可以通过简单的联想提示和页面排序来改变千千万万人阅读到的信息。虽然中国的“魏则西事件”等已经让人们对搜索引擎的结果多了一番警惕,但这无法改变人们对搜索引擎的依赖。
不过,呼吁搜索引擎不要干预算法结果的人,犯了一个根本性的错误:搜索引擎本来就一直在干预搜索结果。所有的自动填充和搜索排序,固然是基于客观的用户行为,但更是基于搜索引擎公司的算法生成的。同样的关键词,为什么在谷歌和百度搜出来的结果不一样?因为搜索结果从来都不是什么客观存在,而是主观决定的产物,只不过这个主观决定被藏在了代码之中,由机器具体执行,所以造成了“客观”的假象。
具体到搜索框的自动填充功能,谷歌早已删除了大量和色情、仇恨言论相关的联想结果。既然人工干预从来都存在,那么问题的解决方法就不可能是让搜索引擎公司对冒犯性的自动填充结果甩手不管,而应该是要求这些公司对自身的算法和决定做到公开透明,接受社会的监督。比如,为什么去掉了女人和犹太人“邪恶”的自动填充,但没有把穆斯林是“坏人”的提示去掉?为什么一些充满谣言和仇恨言论的网站会在搜索结果中非常靠前,而辟谣网站的位置则很靠后?这究竟是怎样通过算法具体计算出来的?
遗憾的是,在目前的法律框架下,谷歌等互联网巨头没有任何义务公开这些信息。这也就给了他们在黑箱中进行操作的巨大权力。
不透明的另一个恶果是:虽然广大普通民众对算法知之甚少,但有少数精通技术的人可能通过种种手段来摸清算法的规律,并针对这些规律来操纵自动填充提示和搜索排名,以达到令某些具有明确目的性的信息大量传播的效果。对于这种行为,如果算法本身不透明,社会上的其他力量也很难进行监督和干预。这就给了当权者、歧视者、不安好心者以可乘之机。
(本文原载《南方周末》“自由谈”版)