查看原文
其他

时代变了,鉴黄师也要靠AI了

加盐 BB姬 2019-12-06



加盐 | 文


前段时间在网上发现这样一个网站,功能是体验AI鉴别色图。


上传一张图片,程序一通运转,几乎瞬间就告诉你这张图属于“正常”、“性感”,还是“色情”。



看到有网友晒出不少图片的鉴定结果,BB姬的小伙伴们也测试了一下什么算色图,发现有些图片的确识别得很准。



有些则让人迷惑...



对此有人觉得官方在空手套色图,也有人说这功能就是憨憨,让大家随便耍的。


其实,AI鉴黄这种事现在已经见怪不怪了。比如我们平时经常用的微博之类的社交网站,就会通过AI识别并屏蔽色图,防止毒害祖国的花朵。



不过道高一尺魔高一丈,在本能的驱使下,大家还是通过丰富的试验发现了AI的漏洞。


于是,大片留白、反色等等反和谐手段纷纷诞生。



换句话说,这也侧面验证了一个事实:鉴黄这种活儿,光靠现阶段的AI还不能完全胜任,依然需要人的帮助。


说到这里,就涉及到一个特殊的职业了——鉴黄师



由于部分莫名其妙的媒体渲染,大家一开始的印象里,鉴黄师是个每天阅遍无数美女,每月拿着上万月薪,让人酸到不行的美差。


有人在网上提了一个问题,“如果不考虑薪水、尊严、面子,你最想从事什么工作?


“鉴黄师”的答案下面获得了很多认同。



这种片面印象的形成倒也不是巧合。



自从网络进入日常生活之后,人们探索到了更大的世界。而丰富多彩的资讯洪流中,除了积极、有趣的信息,同样掺杂着各种不良的存在。


色情,相比暴力、恐怖,不会那么直接的带给人不适感,甚至可以说在许多情况下,人们还会自发的传播它。



但就像我们会说的那句话,“网络不是法外之地”。色情内容很多时候确实只会给人带来困扰,如何去识别、屏蔽这些内容呢?


专门安排人员去处理。这是刚开始能想到的,最简单也最有效的方法。


鉴黄师这个职业便由此应运而生了。



鉴于工作性质敏感,很多鉴黄师岗位在招聘时被一定程度的美化了。


有的公司管它叫“信息安全审核员”,有的叫“视频鉴定师”,叫“超管”貌似也没啥毛病,反正很少直接命名为鉴黄师。



而说到他们的工作内容,确实就如大家所想。每天坐在电脑前几个小时,审核相关视频、图片、文字之类的信息,根据事先制定好的审核标准判断是否属于色情。


简单吗?看起来确实挺简单的。



不过你要以为入行的人大多是男的,那可就错了。


实际上据从业者介绍,女鉴黄师并不少于男性。而且女性的优点在于更加细心,可以发现细节上的问题,这样不容易让一些玩套路的色情内容逃脱。



不过人终归是人,出错和遗漏在所难免,更何况机器都会出错。机械式的工作,带来的是身体和精神上的双重挑战。


还记得几年前,脱口秀节目《暴走大事件》推出过一个鉴黄师角色——唐马儒



作为“首席鉴黄师”,他凭借精湛的演技和喜闻乐见的“色情”相关桥段,收获了很多人的喜爱。而且土肥圆的造型也完美契合了大众对鉴黄师的“误解”。


除去为节目效果的搞笑,这里也借着唐马儒之口,道出了鉴黄师工作背后的艰辛。



你不只用下半身思考的话,那么很容易发现,这种入职第一天可能有点兴奋劲儿的工作,后面等着的,往往是永无止境的“贤者时间”。


色不动了,这真是悲伤的故事。



重复性极高的工作显然使人枯燥,而经常加班处理源源不断的新内容,更令人觉得秃然,身心健康逐渐成了一个问题。


据说曾经有警方查封了一家色情网站后,让鉴黄师在大半个月的时间里看完网站所有的内容,硬给人看吐了。


说身心俱疲完全不夸张。



再者加上社会偏见的存在,这份工作怎么都称不上体面。


假如被问到“帅哥/美女做啥工作的啊?”


相信回答“鉴黄师”的勇气不是每个人都有,因为很可能给别人留下个“这人干的活就是每天看黄片”的嫌弃印象。



加上时代在进步,随着网上的不良内容越来越多,种类越来越繁杂,原来的鉴黄师开始化身多面手。


不光是色情内容,血腥、暴力、恐怖的信息也进入鉴黄师狩猎的范围,他们成了离互联网黑暗面最近的人。



每天净和互联网中最污秽的东西打交道,要不提高承受能力,要不就狼狈离开。


难吗?太难了。


所以鉴黄师是个离职率奇高的职业,人们带着好奇和某种向往来,然后带着郁闷和压力走。



好在现在技术成熟了,AI鉴黄师扮演的角色逐渐重要起来,要说它好的影响,肯定就是解放了人。


24小时不间断看色图不会累,而作为么得感情的机器,AI的“精神”状态不会受到丝毫影响,简直不能更合适。



但就像我们前面所说,AI依靠程序设计带来的逻辑性,远不如人的大脑灵活。如果不人为控制,AI便会在无尽的色图中迷失自己。


从开头我们介绍的那个图片鉴黄AI当中,我们不难挖出一些AI鉴黄的简单原理。


它的程序里涉及到了一些关键词,比如欧派、丁丁,然后根据相似度来寻找图片里是否包含相关的骚东西。



相似度高,包含敏感内容多,就会被判定为色图。反之,则不是色图。


仔细思考一下,其实和人脑判断色图的基本思路是相同的,但缺得就是个随机应变的能力。



毕竟认死理的AI最沙雕。



当然了,这个鉴黄AI给大家看到的那部分,只是简单的理论模型。


世界之大无奇不有,指不定还有什么你猜不到的大宝贝在等着AI检测呢。



现在网络上普遍形成了AI为主,人工为辅的鉴黄模式。简单直接的色情内容,AI快速处理,然后筛选完之后再让人看一遍。


据相关的AI鉴黄科技公司介绍,AI提高鉴黄姿势的最快方法,就是让AI“观看”更多的图片、视频和文字,学习更多的相似场景。



比如隐晦的软色情。


它不色吗?色,只不过要经过大脑的加工和联想,AI想来无法判断这种场景,这就是知识储备量的差距了。



对此,有些科技公司说他们会号召宅男们贡献自己珍藏多年的海量资源,帮AI学习。


要我说,让人们用自己曾经下过色图、色片的手,再将资源送出去,目的还是为了帮助AI更好的打击黄色,属实有点残忍。



不过为了网络环境的大和谐,也好。



-END-



推荐阅读


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存