其他

Facebook允许直播自残?内容审核之路并不好走

2017-05-27 huhu 直播榜

Facebook最近摊上的事儿不少,从直播杀人风波,到最近被曝出的规章内容审核手册的一些内容,都让这个社交媒体巨头被推到了风口浪尖之上,引发了平台底线与道德规范的讨论。



日前,英国《卫报》获得了Facebook100多条内部的训练手册、电子表格和作业图,以前所未有的广度展现了Facebook在面对暴力仇恨言论、恐怖主义、色情、种族主义、自残等内容的时候,是如何进行定义与和谐的。


「 Facebook内容审核政策被曝出 」


从色情和暴力威胁的内容审核来看,不少规定明显让人有些摸不着头脑,甚至自相矛盾。


《卫报》发现的Facebook文件要求管理员们:删除类似“射杀特朗普”的言论,因为一国领袖是特殊保护对象。但是如下言论却是不会被删除的:“咬住一个婊子的脖子,把所有的力气都压在她脖子中间”、“滚去死”,因为这些言论不属于可信威胁。



在一份泄漏的文件中,Facebook说:“他们觉得,说这种话不会有什么后果。因为缺乏面对面交流所能产生的痛情感,对于自己威胁的对象,他们也无比冷漠。”


所以,Facebook认为,“暴力言论大多数是不可信的,除非有细节化的语言提供合理证据,证明用户已经不再是简单的表达情感,而开始策划或设计暴力行为。从这个角度讲,‘我要杀了你或‘滚开去死吧’这种言论即是不可信的,是厌恶或愤怒等情感的暴力表达。”


此外,再来看看泄露的Facebook其他政策:暴力死亡视频可以标记为令人不适,但不是所有都需要删除,因为它们能唤起人们对精神疾病的意识;



部分无性肢体虐待和儿童暴凌不必删除,除非包含残酷虐待或庆祝内容;



允许分享动物虐待照片,部分极端图片可标记为令人不适;



允许分享所有包含裸体或性活动的“手工”艺术作品,但不包括数字制作的性活动艺术内容;



允许分享堕胎视频,只要不存在裸体内容;



Facebook允许用户直播自残行为,因为公司“不想审查或处罚在痛苦中的人”;



以及任何拥有10万以上粉丝的用户都被视为公众人物,不享有一般用户的全面保护措施。


对于这些看起来明显不合常理的规定,Facebook全球政策与管理主管Monika Bickert表示,公司现在拥有20多亿用户,想要达成普遍共识很困难。“Facebook是一个遍布全球的、多样化的社交网络,人们判断某些内容适合分享的标准不同。无论你把线划在哪里,总会存在灰色地带。比方说,讽刺、幽默和不当内容之间就经常交叉。我们很难决定某个内容是否应当出现在平台上。”



Facebook作为社交平台巨头,用户数量的庞大也对内容审核管理员提出了严峻的挑战,管理员通常只有10秒的时间对某条内容的去留做决定,这也导致Facebook难以控制其内容。


内容审核专家Sarah T Robert说:“小型网络社区的原则和价值设定是一回事,但当一个社区已经拥有了世界很大一部分人口的时候,这时候你说‘分享你自己’,社区就会完全混乱。”


Bickert承认公司的确在之前的审核中犯过一些错误,“是我们做得不对,我们也一直在这方面不断的完善,确保此类事件以后尽可能少的发生。即使没有普适性的方法,我们也会尽可能找到最好的方式了解决审核方面的问题。”



Bickert还在专栏中反复重申,Facebook在本月初宣布公司将再聘用3000名审查员来完善审核工作。而公司宣布这一雇佣计划的诱因正是Facebook Live上发布的一系列谋杀、意外死亡以及自杀等直播视频。


不过,这些举措能否挽救Facebook近期逐渐下滑的口碑,还未可知。


「 内容审核是平台生存的基石 」


不可否认的是,Facebook拥有如此大的用户量,难免出现内容审核分歧或是审核量过大等问题,但也难免让人心生疑问,这些规定会否是高风险博取回报的举措?


不管是社交还是直播,都是一件需要互动的事情,需要一定的智商和情商,走红的内容、主播都是经过了层层筛选和自然竞争中产生出来。在社交平台上,往往是那些打擦边球的内容更吸引人眼球,从直播平台上来讲,更是如此。



很多出格行为都是为了用不同的内容刺激观众的观看欲望,比如国外的直播自残、直播强奸等等,相对于国内较为传统的文化,各种内容不至于太过刺激,但仍然不乏一些干涉隐私或是比较具有争议性的直播内容,比如直播女生宿舍等等。



为花椒、秒拍、映客等平台提供图像监测服务的图普科技创始人兼CEO李明强说:“平台要审核的内容是多种多样的。比如是不是暴力的、是不是恐怖血腥的、是不是抽烟的或者开车的时候直播的等等,还有直播里面出现一些特定的服装和人物,也都可能是要去审核的。任何一个维度没有做好的话,都会使得审核提供的服务是失败的。”



李明强认为,内容审核是各种视频应用的一个基石,不管它赚不赚钱,或者是不是留存用户,体验怎么样,首先内容是要可控的。而内容监测需要付出的人力成本和管理成本是一笔很大的开销。



从国内的内容审核情况来看,在不少负面新闻出现后,平台都开始逐渐加大了审核力度。比如,一直播的母公司一下科技的内容审核团队已有近千人的规模,同样处于直播行业的映客的审核团队也已经达到了千人规模。目前,基本上较有规模的直播平台对于内容审核方面每年要投入数千万。


一下科技副总裁陈太锋说, “现在我们整个内容管控团队每天的工作是十分紧张,因为对公司来说,一旦出现问题,有时候就会是灭顶之灾。”一夜之间垮掉的快播对于他们来说就是前车之鉴。


一下科技的整个内容监测处置的时间基本在几分钟之内,而且审核和运营部门保持分离,对审核人员的所有操作都有详细的记录。针对违规账号的解封需要经过层层的审批。对于这种严谨度,李明强认为,“审核系统和直播系统同等重要,审核的系统如果挂了的话,宁可把业务系统停掉,也不敢把没有审核的直播内容发出去。”



从目前来看,在监管力度加大的环境下,关于直播平台内容争议之声已经逐渐减少,但能否保持下去,仍是未知数。


「 监管自律两手抓 」


作为网络信息的入口,对于平台的监管自然是重中之重。2016年11月4日,国家互联网信息办公室发布了《互联网直播服务管理规定》,虽然在立法层级上仅为部门规章,但却是直播行业最核心的法律文件。



《互联网直播服务管理规定》中一共包括20个条文,涉及直播平台的有16条之多,这也足以见得国家对平台所背负的责任十分看重,要求平台承担起第一道监管职责。


陈太峰认为,从监管职责这方面来看,不少没有能力、资金、技术的平台就注定要被淘汰掉,随着管控的严格和监管的深入,他们很难获得长久的生存和发展,平台也将加快优胜劣汰,形成相对稳定的市场与竞争格局。


《互联网直播服务管理规定》中其实对直播发布者也提出了两大要求:应取得《互联网新闻信息服务许可证》,以及不得利用互联网直播服务从事危害国家安全、破坏社会稳定、扰乱社会秩序、侵犯他人合法权益、传播淫秽色情等法律法规禁止的活动,不得利用互联网直播服务制作、复制、发布、传播法律法规禁止的信息内容。


但很明显,不少内容发布者们并没有做到这些要求。从“黄鳝门”、“故宫门”等各个事件来看,部分内容发布者门为了吸睛依然会铤而走险。



而从用户方面来看,之前闹得沸沸扬扬的杀人直播事件,在Facebook平台撤下之前,已经被无数的网络用户下载、截图和转发。如果说,发布者是不良内容的源头,平台因监管不力导致不良内容发布,那么,这些转发的网络用户也在很大程度上起到了推波助澜的作用。



在《互联网直播服务管理规定》虽然没有将网络用户作为规制重点,虽然只有一条提到了网络用户,即“在参与直播互动时,应当遵守法律法规,文明互动,理性表达”,但是,这并不意味着网络用户可以任性而为,而且,转发扩散所造成的影响扩大,也让用户变相成为了内容发布者。


除了自律,在网络环境内,用户也更需要多一份人情味。近年来,直播自杀的事件屡见不鲜,而背后的原因多数是在现实生活中受到了不堪忍受的重负,得不到关心和同情。在自杀前,很多人都会向观众讲述自己要自杀的原因和心理活动,其实也许他们需要的是被安慰和阻止。然而多数时候,他们收获的反而是恶意。



2008年,一个名叫比格斯的19岁男孩在网站上直播自己服药自杀。在自杀前,他说自己“是个废物,让所有人失望了,不配活在世上。”直播持续了12小时之后,才有观众报警。比格斯因为没有及时送医死亡。而当时观看这个直播的观众,多达1500人。



在比格斯自杀的过程中,有观众非但不制止,反而要求他“不要废话,干脆一点。”而大多数观众,虽然没有怂恿,也都袖手旁观。


生活中的孤独和愤怒等负面情绪无处排解时,向网络上的陌生人倾诉,这可能是我们这一代人共有的悲哀。然而直播的画面再清晰,也被屏幕隔绝了真实世界的温度,折损了人们的判断力。



当直播自杀、直播性侵等极端事件发生时,也许我们都还没有找好自己在虚拟世界和现实世界之间的位置。而这个位置,需要网络中的每一个人去寻找。

 




回顾  ·  阅文


新浪女性 / 徐晓冬 / 直播 · 下半场 / 一直播CEO

李克专访 / 社会摇 / 无忧传媒CEO / 福布斯

主播福利 / 合法窥视 / 热度传媒CEO / 熊猫COO

帕尼尼 / 奥斯卡 / 一起扑克CEO / 火山vs快手

回音哥 / 章鱼TV联创 / 口罩卡 / 老外没毛病


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存