查看原文
其他

黑爪:得给AI这熊孩子立个规矩

2017-03-27 黑爪 大家


文 | 黑爪


经过了历史上几波起伏之后,人工智能这一轮似乎是动了真格。新闻里每天都有他们的影子,而社会的反应大抵有两类:因“梦想成真”而升起的兴奋和期待,以及对“人工智能威胁”的忧虑和担心。


从沃森(IBM智能系统Watson)在智力游戏Jeopardy!中取胜,阿尔法狗在围棋上战胜人类,到今年一月利布拉特斯(Libratus,卡耐基梅隆大学研制的一款人工智能系统)在德州扑克赛中碾压人类,尤其令人惊讶的是,这家伙连使虚招诈唬这种事都会,而且从训练过程看,这个本事基本上是无师自通,无人车也从传说中来到人们眼前,去年圣诞节前一辆优步无人车在旧金山当代艺术博物馆前闯红灯的录像在网络上疯传,被人戏称为“AI忙于欣赏当代艺术没注意到红灯”……



就像一个活力无边,创造力无穷,然而破坏力还有限的熊孩子,一下子长成了不容小觑的少年,高出你一头,站在目瞪口呆的大人面前。它们跟现实生活中的熊孩子一样,时而挑衅成人,时而内斗。


(一)维基机器人大战


维基百科于2001年上线,它的出现使得知识点不再成为稀有物资,每个人都可以凭借它变得学富五车,从中华白暨豚的分布或濒危过程,到卷入奥斯卡颁奖乌龙的老演员华伦·比提年轻时究竟有多风流,所有的问题都可以在一个点击间轻松解决。


我们并不知道的是,维基页面的背后却隐藏着一场旷日持久的机器人无声血战。


维基从一开始,成百万的辞条文章便是经由一系列软件机器人在维护,它们的主要任务是纠错,添加指向相关页面的链接等日常琐事。起初,机器人很少,它们鸡犬相闻,互不往来;渐渐地,机器人数字出现爆炸性增长,终于导致了与它们的存在是用以维系辞条准确性这一初衷南辕北辙的结果。它们相互之间接触越多,就越深地陷入战争:撤销对方所做的编辑,修改对方添加的链接,有些冲突甚至激烈到必须让最好战的几个机器人出局才能平息。


老实说,这听起来像一个开得挺大的脑洞,逗。


这些被叫做维基机器人(Wiki Bots)的程序本身非常简单,基于相同的开源技术,它们被编制出来仅仅是为了将维基辞典维护得更好。维基本身就是一个维基机器人组成的生态系统,4千万个辞条,293个语种,你不可能指望所有的细微修改和维护都由人类来执行:加链接、去恶意行为、给侵权内容插旗、检查拼写,诸如此类。这么一想,它们原本是一些极其乏味的家伙,很无趣,压根不会想到它们之间会打起来,还打得不可开交。


无论这听起来多滑稽,重要的是,或者说让人惊出一身冷汗的是,这些人格化了的机器人被放入互联网丛林中自由游荡,它们制造了一半的网络流量,而我们对它们在丛林中的行为,很长时间以来却并不知情。



这件事是被牛津大学互联网研究所和阿兰·图灵研究所的一组研究人员,在分析维基成立后的前十年里机器人间冲突现象时,查看了13种语言所编写辞条的修改历史而发现,并于2017年2月底发表在开放性学术刊物PLOS ONE上。这些记录显示了机器人如何不厌其烦地一次又一次撤销其他机器人的编辑。“机器人之间的争斗,持久性远胜于人类,”牛津大学互联网研究所的塔哈·亚瑟尔说,“人的怒火通常几天就能平息,这些机器人得要好几年才能消气。”


最著名的战役之一,发生在一个叫Xq机器人(Xqbot)和一个叫黑暗机器人(Darknessbot)之间,他们在2009年到2010年两年中,一共因为3,629 个辞条起了争端。其间Xq机器人撤消了黑暗机器人所做的2,000次编辑,而黑暗机器人撤消了Xq的 1,700 多条修改以资报复。这二位征战涉猎广泛,从古希腊的亚历山大大帝,一直打到台湾的板桥区话题。


另两名斗士,一位叫塔奇克马(Tachikoma),名字来自上世纪九十年代日本科幻片《攻壳机动队》(Ghost in the Shell)中的一个人工智能,它与罗斯机器人(Russbot)从希拉里的2008年竞选,到英国的人口统计,一共就3000多个辞条,互撕千余回合。


如此厮杀,你本能地会以为他们在为理想而战,为光荣而战,或者为意识形态里某个高大上的理由而战,然而从统计数据看(截至2017年1月31日),大多数机器人为之浴血奋战的热门话题偏偏是这些:便便(Feces,一共被改了1445次,以下数字均代表被修改的次数),阴道(Vagina,1404),肥(Fat,1322),性(Sex,1309),白痴(Idiot,1305),智障(Intellectual disability,或者也可以叫脑残?1297),美国(America,1280),拉屎(Defecation,1266),牛逼(Awesome,1254),中国人(Chinese People,1234)……


除了话题和辞条差异外,不同语种也表现不一样。德语的维基机器人最友爱,十年内平均每“人”撕逼24次;葡萄牙语机器人最火爆,平均撕逼率达185次;英语机器人撕法细腻,来回往复,然数量不低,平均每“人”105次。


从程序的复杂程度上来看,维基机器人只是人工智能世界里的蓝领基础工人。就连这些只配备了最简单算法的,并无恶意的二货熊孩子,一旦离开大人监管(实验室)而外出谋生,面对略有差异的自然环境,其结果已经如此不可预料,那更加发达,更加强大聪明的高级AI呢?


我们通常更关心的是,AI将会对人类怎样;而从维基机器人,以及本系列上一篇文章(《人类的弱点AI都有》)所讨论的智能体这几个例子看,AI系统之间彼此会怎样,事实上远比我们以为的更值得思考,也更有趣。正如牛津大学及图灵研究所维基机器人大战的研究小组所说,“对我们这个数字小宠物的生命以及进化,眼下我们还知之甚少。”


(二)AI草根战假新闻


先澄清一下,眼下“假新闻”一词有两个含义:一是原本是事实,但不巧成为美国总统面临的政治难题,而被冠以这个名称;一是确实就是假的、编造出来的事实。本文所指,均为后者。


举一个假新闻的例子,去年11月,美国德州一位叫艾瑞克·塔科尔的35岁男子在推特上发了一张照片,照片上是几辆巴士,文字说明称:车里面装的都是花钱收买了去抗议候任总统的假抗议者。艾瑞克既不是大v,也不是名人,他的推特粉丝只有区区40个,这条推文却立刻就火了,推特转发1万6千次,脸书转发35万次,川普和他的支持者当然也参与了这一转发大军。后来证明没有这样几车被收买的抗议者,这件事整个是编造的。


但重要的是,这个消息抵达了近百万人,远超大多数传统媒体能够达到的传播效率。


责难雪片般落到技术公司的头上,脸书首当其冲,推特、谷歌也无一幸免,公众认为他们对假新闻的流行负有责任,因为他们的算法直接关系到,哪些人可以读到这样的新闻。有人把假新闻现象与个性化搜索导致的过滤泡联系在一起,在这样一个动态互动系统中,用户只会收到他们可能会点击,会评论,或者会点赞的内容。换句话说,就是他们只会看到跟他们预设立场一致,他们愿意相信的内容。


当整个社会被一本字典(牛津)用一个合成词“后真相”(post-truth)来吐槽的时候,很大程度上说明,这整个社会真的是弄砸了。真相和谣言真假莫辨,无论是艾瑞克无心所致,还是巴尔干少年用SEO工具武装起来的生财之道,总之这个社会是被我们弄砸了,病了,病急乱投医,最时髦的是投奔万能的AI。AI你不是下赢了围棋,打赢了德扑,还可以把脉诊病,听音辨词吗?对付个区区假新闻,一定行。


许是无知者无畏,整个行业对此寂然无声时,接招的却是AI届的一位草根人士,卡耐基梅隆大学的一名职员迪恩·帕墨娄(Dean Pomerleau)。他先是义愤填膺地公开谴责机器学习届大佬,脸书AI部门头面人物彦·乐康(Yann LeCun)的无所作为;接着更是“啪”一声拍出两千美元来,拉起了一个擂台,有奖鉴别假新闻竞赛,Fake News Challenge。



帕墨娄的精神是可嘉的,不仅投资了时间,更有自己的职业声誉。但是不久他便意识到自己以及这个竞赛的过于天真。事实上,他很准确地用AI已渐入创造性领域这个事实——例如AI可以生成视频、音频、作曲、写文——来推断:不久的将来,我们将更难分辨眼前所见一切之虚实,也就是说,AI就能够生成假新闻。既如此,AI就也能治假新闻。这显然是一个推理环节中漏洞百出的逻辑结论。他更以人们已利用智能过滤器加内容分析和自然语言处理的方式成功地分类了垃圾邮件为例,来证明AI战胜假新闻不应该是一件遥远未来的事。


事实真的这样美好吗?自由女神身高几何,鲁迅名字叫周树人,这些是显而易见的事实;可是还有一些不那么显而易见的,信息源需要保密,有些被刻意掩盖,有些索性公开抵赖,还有些是讽刺、反话、隐喻,这需要对这个世界有多么深刻而微妙的理解才能做出正确的判断啊。


让我们去擂台赛网站(http://www.fakenewschallenge.org/)看看,从竞赛规则对问题的定义、系统的输入和输出来分析,为什么说帕墨娄图样图森破。


输入为一个字符串,来自一句新闻声明或标题;


输出为一个四元组:


布尔虚假指针({0,1},注:布尔是只有0,1两种值的数据类型),


可信度 (范围未指定),


可资支持的源头URL( 未指定集合,评估标准未定义)


接受/拒绝的可信度界限(与第二项的区别不明确)


竞赛为参赛者提供训练数据(training data)和开发数据(development data)。然而与输出定义一样,也有很多未指明或未定义的情况,例如某一条声明的时效性,它在n年可能是真,而到了n+t年极有可能不真。


“努力使我们生活的世界变得更好”,喊出这句口号容易,支撑这句口号背后所需要的工作不易。帕墨娄和他的伙伴意识到热情与现实之间的距离后,对竞赛目标做了些修改。从第一版的假新闻识别,改成了第二版的立场识别(stance detection),将标题和内容放进算法测试,输出如下四种结果之一:


相符:正文与标题相符


不符:正文与标题不符


讨论:正文讨论了标题所指明的议题,但并没有选择立场


无关:正文所议与标题无关


可以完成上述任务并具有最高准确性的AI将成为竞赛的优胜者。


可是,这显然并没有解决假新闻的问题,它仅仅一定程度上降低了人工核实的工作量。然而,从不起眼的可行之处着手,已经远远好过博眼球的奇迹。


但你关心的,其实还是AI能否解决假新闻的问题对吗?


要回答这个问题,需要先明确,假新闻究竟是不是一个可以用人工智能技术来描述和定义的问题?当然,将任何一个需要智力参与的任务用机器(或者说算法)来将其自动化,都是人工智能领域的问题。而现在AI领域并不具备可以自动化一切智能任务的工具;AI届拥有的,仅仅是越来越丰富和强大的技术,用以识别数据中的规律,从而更好地描述问题。


可以用来与假新闻比较的也许有这样两个可以算作已成功解决的问题:一是色情图片识别,一是垃圾邮件过滤。这二者的识别系统均采用一种叫监督学习(Supervised learning)的方式,算法将输入与数据集{x1…,xn}以及相应的标签{y1…,yn}相比较,该学习算法输出的便是与每一个输入x相对应的y。具体到垃圾邮件检测,每一个输入xi即为一个电子邮件及其元数据的一种表现方式,所对应的yi是一个二进制标签{0,1},分别表示是或不是垃圾邮件。同样,色情图片识别的输入是图片,每一个yi也是一个二进制标签,分别表示是或不是色情图片。在这两个问题里,输入输出都定义明确,而且在做标记阶段,无论是垃圾邮件还是色情图片的是和否,都有非常高的程度的共识。


这么一比较,显而易见,假新闻的问题与这二者的困难程度不在相同的数量级上。


这么说,当然不是为了泄气。IBM的辩论机器人(Debator bot)从海量的辩论文本中学习提取有说服力的论点,谷歌刚刚推出的Perspective API(观点接口)可以在社交媒体上辨别“有毒”(toxic)评论。我们不相信奇迹,但是这些努力兴许是未来奇迹的起点。


(三)立规矩


AI能够解决的问题,与它们能够带来的麻烦,似乎可以等量齐观。


基本上是刻不容缓的节奏,欧盟2月16日召集立法人员,讨论给AI这熊孩子立规矩的大事,整个草案涵盖了一个伦理框架,在彻底开发人工智能的经济潜能外,确保包括无人车在内的各类机器人从开发、实现到成型的各个环节的安全可靠性。


起草人马蒂·德尔芙说:“我们日常生活中越来越多的领域正在受到机器人的影响,本着致力于阐明这一现实,并确保机器人正在,并将一直会停留在服务人类的本分上,我们迫切地需要建立一个稳固的欧洲法律框架”。


草案以一套机器人“行为守则”组成,从技术、伦理和监管等方面提供专家规范,规定了谁将对机器人在社会、环境、人类健康等方面的影响负责,并保证他们的操作符合法律、安全和伦理规范。例如,该守则建议设计“毁灭”键,以供紧急情况下关闭机器人。


这份草案以17票赞成,2票反对,2票弃权而通过。


有趣的是,欧盟议会在声明中加了这么一句意味深长的话“欧洲在建立这些标准的问题上需要先行一步,以避免被迫屈从他国。”这一句在我读来便是,欧洲不要做硅谷的殖民地。


所以被立了规矩的其实不只是熊孩子。


原标题:《给AI这熊孩子立个规矩》


【作者简介】 

黑爪 | 腾讯·大家专栏作者


【精华推荐】

人类的弱点AI都有

美国底层白人的日子有多难?

女人,请像谈情爱一样谈情爱,像谈合同一样谈合同


 ·END·  


大家 ∣ 思想流经之地
 微信ID:ipress  

洞见 · 价值 · 美感


※本微信号内容均为腾讯《大家》独家稿件,未经授权转载将追究法律责任,版权合作请联系ipress@foxmail.com

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存