查看原文
其他

口口口口下的中文异化

T China T 中文版 2022-12-31





2022 年 3 月,网易新闻平台上出现了一则《在一晚连口 62 人后,他把自己也口死了》的标题。文章讲述的是韩国历史上最恶劣的杀人犯的故事,因为「杀」这个字涉及暴力元素,被平台全部改用「口」字代替。

这种由审核带来的既啼笑皆非又莫名其妙的「文化奇观」,不止一次出现在互联网平台,而这种对「敏感内容」的审查与阉割,似乎也早已成为互联网平台方与用户间的共识。曾有网文作者因为担心作品中的「上床」会被平台判定为含有色情元素,主动改用「上炕」替之。

因为「杀」字涉及血腥暴力,故而在部分网络

平台上,这个字被显示为「口」。在为本文

配图时,我们从《现代汉语词典中》选择了最具

代表性的几个字,用「涂黑」这一行为

比喻它们「不必要」的消失。


今年 12 月 15 日,经国家网信办最新修订的 《互联网跟帖评论服务管理规定》正式施行,其中提到实行新闻跟帖评论「先审后发」制度,明确指出公众账号有审查自己评论区的责任,否则平台可以对账号进行「删除信息、限制账号功能」等处理措施。此规定一出,不少网友表示网络审核已经「无孔不入」,「如果按新规执行,审查员的数量需要增加 10 倍」。

在网友的调侃之外,此次管理法规调整也暗示着,互联网空间治理的重点早已从最初的提供信息服务逐渐进入话语和观念的表达。而这种治理逻辑的背后,则是近年来互联网空间中日趋激烈的「话语权」博弈。


早期的网络空间主要是网络基础设置和信息资源的维护与配置,实际上是一个「信息批发市场」。这一阶段的典型网络场景是「网上冲浪」,用户在信息的海洋中寻找自己需要的信息浪花。

因此,当时的网络审查,像超市不同货架的理货员,目的是为了实现信息市场的有序化和信息资源的合理高效配置。门户网站和搜索引擎的诞生,就是这种审查逻辑的结果。

而当下的网络空间的审查,则是以话语权争夺为主,是一个「观点自由市场」。

2010 年之后,随着微信、微博等社交媒体的出现和 4G 智能手机的普及,网络空间被重新划分为不同兴趣、不同价值追求、不同文化认同的「群体」。在网络空间各个群体的内部、群体与群体之间、群体与主流舆论场之间,「话语权」变成一种资源。在公共领域,人们的核心需求不再是找到自己所需的信息,而是有效表达自己想表达的信息 —— 按照他们乐意的方式去「说话」。

「死」或许是最先被互联网改造的

汉字之一。在几乎所有公共电视平台,字幕中的

「死」都被加上了引号。


因此,网络空间的审查机制,就是围绕着话语权力展开的。那么「话语权」的争夺,主要集中在哪些领域呢?

第一个是营销等商业内容的审查,比如严禁售卖假冒伪劣商品、网络空间的营销必须在《广告法》的相关规定之下进行等。这进而导致了电商直播平台的各种关键词审查 —— 表示商品金额的「元」,表示商品极端效果的「最好」「最优」等词都会成为「被审查」的对象。

第二个是文娱领域的道德审查。比如对直播、影音视频的文化价值观的审查,及其内容是否包含血腥、暴力、淫秽色情、低俗和引人不适等。

第三个是时政敏感内容的审查。2019 年颁布施行的《网络信息内容生态治理规定》列出了 11 条内容「违法信息」,都属于网络政治意识形态审查的红线范围,包括反对宪法、危害国家安全、亵渎英烈人物、散布恐怖主义、攻击民族宗教政策、散播谣言等。


作为互联网信息市场的主要构成者,也是网络审查的最主要主体 —— 平台,是如何介入其中的?

据字节跳动内容审核部某前员工介绍,他们平台的审核分初审、复审和回查三部分。用户发布在互联网平台的大部分内容,会由机器首先「审核」一遍,集中过滤掉一批事先由算法设置好的高敏感词。

这些筛选出来的内容会被打上标签,再交到初审的审核员手里,审核员们会借助一系列的技术和插件,先识别出一些机器和算法还没学会的敏感词及文本变体,剩下的内容则由审核员主观判定是否合规。

如果初审审核员们对同一则内容的判定结果不同,则内容会进入「复审」阶段。即使审核通过的内容也会不定期有「上级」回查,确保一段时间后的内容没有触及新的敏感线。审查前后一共 3 至 4 个环节,以保证流入互联网公共空间的内容始终「合规」。

平台的审查是人工与算法相结合的过程。不同层次的审查者间相互配合 —— 从机器和算法的模糊识别,到人工的复核,再到机器和人的学习优化 —— 形成了一种人机交互、互相监督的审查层级监视机制。

在某档综艺节目中,

歌词「给我一支烟」改成「给我一只眼」。


平台审查是以「文字」及其符号载体为主要内容的审查。

媒介理论家 Stuart Hall 在其著作《编码/解码》(Encoding/Decoding,1980) 中提到,人类的信息传播与交流活动,存在着「编码」和「解码」的过程 —— 传播者按照传播媒介的形式要求对信息进行「编码」并通过传播媒介向受众进行传播,受众根据自身的知识系统对接收的信息进行「解码」,获取相应信息和意义。这个过程,实际上存在传播效果的不确定性风险 —— 传播过程中是否存在噪音干扰,以及传受双方「编码」和「解码」的操作系统是否一致。

但有一点可以明确的是,人类的信息传播活动,必然要通过语言、文字、符号的「编码」才能传播,网络空间的话语表达也不例外。


这就给平台的审查带来了一定挑战。平台作为责任主体,既要对简单、明显的「编码」后的发言进行「解码」和审查,也要对复杂、隐秘的「编码」信息进行对应的审查,否则就有产生「漏网之鱼」的可能性。

这个过程,既需要审查方对发言者的「编码规范」有充足的知识储备和逻辑认知,也需要对发言者「编码规则」的变化有敏锐快
速的洞察和调整 —— 一旦发言者发现自己的「话语」受到了平台的审查限制,他们将尽最大努力找到审查规则的漏洞并进行「重新编码」,否则就只能另寻平台。

这是一个不断发现、不断学习、不断反馈和调节的循环过程。也是发言者与审查者围绕话语权的「猫鼠游戏」—— 既有此消彼长,也有反复试探 —— 最终在斗智斗勇中互相解构又重构。

在信息爆炸的网络空间,作为个体劳动者的平台审查人员很难完全应对这种场面。因此,平台除了肩负监管和审查的责任,提供信息服务价值外,他们还要花费更多时间和精力投入到审查人员的培训与算法的研发之中。

这实际上形成了一种新的「异化关系」,以解放审查人员为目的的机器算法反过来成为主宰人的工具,审查人员既要不断投喂机器,培养算法对审查的学习能力,又要时刻担心被算法完全取代。不同于马克思所讲的生产的异化,这反而是一种由于审查所带来的异化(即审查者与他的审查工具之间的异化,作为审查工具的算法反过来凌驾于审查者之上)。


从文化和社会建构的层面看,网络审查的直接后果是带来了语言文字的异化和社会场景的「奇观化」。

我们假设「美国」是现行网络空间审查中的一个「违禁词」。

《新华社新闻信息报道中的禁用词和慎用词》曾列举了新闻报道中禁用慎用的五大类一百多个禁用词。这些违禁词,即使专业的新闻从业者也很难完全熟记于心。这就造成了一个现实状况:对于大多数普通的网络空间发言者而言,他们并不清楚网络审查规范中的所有「违禁词」。因此,网络审查对文字的异化往往是从无意识的发觉开始的。

第一步:最初,使用「美国」一词的发言者并不知道这是「违禁词」,使用的结果可能是,在直播中受到平台警告,在弹幕或留言中发现被屏蔽。‍

第二步:于是发言者意识到,这是一个不能直接使用的「违禁词」,因而发言者做出调整,比如将「美国」二字制作为图片发布。可能会「骗」过审核人员和机器算法(大概率下,一旦被识别,审核机制将很快作出补充和调整),也可能图片仍然被识别为「违禁词」。

第三步:发言者改用意义延伸的方式代替「美国」,比如「America」「meiguo」,这么做或许能够通过审核,于是继续进入审核机制的调整,或者仍然不能通过审核。

第四步:只能使用不易产生联想的异化形式来表达「美国」,比如「MG」「漂亮国」「美锅」「鹰酱」,这些词汇已经不能在约定俗成的语言规范中被理解为「美国」,而需要传播者和接受者拥有共同的「编码 / 解码」系统。


如果这种改头换面骗过了审查机制,并得到共同网络空间中其他个体的认可,它将作为一种代替「美国」的新造符号存留下来。于是,与汉语词法和现行使用规范并没有直接相关性的新「美国」代替了原有的「美国」—— 网络审查机制促成了文字的异化。

猫鼠游戏到此并没有结束。终有一天审查机制 —— 以及它的审查人员和算法程序,将会发现自己受到蒙骗。于是新的调整和学习过程就会再次启动。因为审查的目的,是为了屏蔽某种「意义」,而不仅仅是「意义」的表现形式。

然而,从人发现审查的规则并主动接受审查,异化就不仅停留在文字的应用层面,还有思维和行为方式的异化。在经历过平台警告、敏感词屏蔽、违禁行为惩罚等一系列互联网平台的规训行为后,发言者最终将在一次次的「互联网电击」中学会在平台审查前就进行自我的审查和自觉的修正。唯有如此,他们才能继续在平台上「发言」,表达「观点」。


我们很难完全判断今天的网络审查对文字的异化是语言进化中的必然还是偶然。从对母语朴素的情感出发,如果我们的下一代,把法定货币称为「米」,把人民卫士称为「FBL」,把正在深刻影响着我们的疫情记忆称为「口罩」,我们情感上真的能够毫无波澜的接受吗?

法国理论家 Guy Debord 曾经提出过一种「奇观社会」的概念。Debord 认为,在现代生产条件蔓延的社会中,整个社会生活都表现为一种巨大的「奇观积聚」,曾经直接存在着的所有一切,都变成了纯粹的表征。网络空间审查正在推动着这种新的奇观社会的形成。

有一点是确定的,公共空间的存在,无论是现实的还是虚拟的,最佳状态一定是平衡和稳定的。要实现这种目标,网络审查就会继续存在,也必须存在 —— 如果网络空间完全失去规训和约束机制,将会变得混乱无序又充满血腥暴力。

问题的关键是,我们应该在何种层面,以何种形式,为了何种目的设计和改进网络审查的社会协商与博弈机制。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存