查看原文
其他

人工智能会组队游戏了,更令人恐惧的是它们正在变态

狂丸 狂丸科学 2019-04-02

狂丸

科学,以玩为本。


近年来人们一边担忧着AI的潜在威胁,却又一边疯狂的挖掘着它的潜能。最新的消息是,AI与AI之间已经学会了如何团队合作,它们开始组队打DOTA2,而且还打赢了人类


DOTA2是一款利用团队配合赢取胜利的MOBA类游戏,以对新手门槛过高而闻名,游戏的复杂程度高于LOL,远胜于《王者荣耀》。而这次挑战这款游戏的AI系统名为名为「OpenAI Five」,来自于马斯克和Sam Altman共同创建的人工智能非营利组织OpenAI。


OpenAI Five由五位AI组成,它们在游戏中以5v5的形式,击败了由非职业玩家组成的小队,斩获了AI在游戏领域中对抗人类的首次团战胜利。而令人惊讶的是,AI竟然打的很有战术。它们利用技能驱散敌方阵型:


优先击杀残血英雄:


干净利落的补刀了苟在树林中的猥琐人类,玩的非常秀。


其实在去年8月,OpenAI就曾经以1v1的方式向DOTA2顶级职业选手发出挑战,其中包括著名电竞选手Dendi,他曾在2011年「DOTA2 TI1科隆邀请赛」中 ,带领战队获取冠军。而在与AI的solo比赛中,OpenAI用假动作欺骗成功,精彩的反杀了Dendi。


挑战很成功,但DOTA2毕竟是一款团队游戏,单挑并非核心玩法。所以AI团队想要在正式游戏中战胜人类,仍需要克服不少困难。简单的说:5v5的游戏内容更为复杂。游戏中一个英雄有十数种有效动作,而这些动作可以作用在其他玩家、建筑、NPC、野怪上。计算下来一个英雄可以有170000种的操作可能,而每一次操作都在向比赛结果递进,影响比赛的结局。

(AI一个技能命中人类四人)


所以,AI必须学会「持续计算」。不同于围棋的静态博弈,DOTA2的局势几乎时刻变化,AI不仅要关注自身,还要计算队友、敌人以及身边的一切动态情况。

(AI支援队友抓死狡猾的人类)


另外,因为战争迷雾的存在,DOTA2的地图视野并非全部开放,每个玩家都有自己的固定视野范围,AI无法像人类那样主观猜测对手的游戏进程。而团队战不同于单对单拼操作,发育、偷家、埋伏、以多打少都很重要。


所以,即使在围棋上的优势已经人尽皆知,但对于AI来说,DOTA2根本就是另一个次元的游戏。但据OpenAI介绍,目前OpenAI Five的平均天梯分数超过4200分,实力已经可以算是中等偏上。能打到这种程度,自然归功于AI惊人的学习与计算能力。


OpenAI官方表示,目前这套系统最可怕的,是拥有着强大的自我训练能力:「普通人类需要1.2万小时的游戏时间才有可能成为职业选手,而AI的经验积累速度是人类的100倍」。


在AI的训练中,80%的时间用于自我对抗,20%用于对抗过去的自己,它们一天可以模拟进行相当于180年的游戏训练量,不断的做出选择,吸取错误教训,飞速成长。最初的几场比赛中AI只会控制英雄漫无目的的探索地图,几小时后他们开始掌握技能、了解游戏规则,防御基地。几天后,它们就学会了配合使用战术。例如在河道附近伏击对手:

(下路的一次夹击)


结队探索迷雾,在树林中发现并猎杀敌方落单英雄。


对于游戏,AI上手的速度较慢,但进步快,而且发挥稳定。首先它本身不存在操作失误的概念,另外反应敏捷,每分钟可以完成150-170次操作。它获取信息的速度也超远人类,对于角色血线、距离、CD、全队资源状态的掌控比人类有着天然的精准度,它们现在甚至会给需要成长的队友让人头


在对抗赛中,有OpenAI员工替代了其中一位AI,进场参与比赛,他表示可以清楚的感受到其他AI队友对自己的援助与配合意图。


不过,目前AI参与的比赛还是有一定限制的。「DOTA2 人机大战」目前的规则是:AI只能使用游戏中115位可选英雄中的5位,对人类玩家也进行了限制,不能使用真假眼、魔瓶等道具。简单说,OpenAI Five目前只完成了五位英雄的比赛计算,而且能处理的比赛环境相对简单。这也意味着,AI在与人类的团体对抗中虽然有了立足之地,但还有很长的路要走。不过,他们在今年7月就会与顶级职业战队进行较量——AI的突破速度,真的恐怖


当然,「AI学会团队配合」除了给人类社会带来了一些惊奇外,也有担忧,那就是这一次进步是否加速了AI反攻人类的可能。事实上,今年这种担忧就没停止过。今年5月,谷歌直接造人了。作为一款语音智能助手,Google Assistant的功能完全颠覆了人们的认知,它可以流畅自然的模拟人类说话,并完成理发、饭店的预约:

https://v.qq.com/txp/iframe/player.html?vid=r0647360dsv&width=500&height=375&auto=0

另一款同样出自谷歌的人工智能,甚至可以预测人类的死亡时间,而且准确率高达95%。据了解,它总共分析了21万份住院病历、数亿电子病历,以此为基础进行深度学习。其成果是不仅可以预测病人就医后24小时内的死亡风险,连住院时间和再次住院的几率也能计算。


在人类的不断引导下,AI已经以惊人的速度学会了打游戏、辩论、看病、制作动画等等一系列人类行为,他们在展现出卓越能力的同时,也让人类有一种被超越后无法掌控它们的感觉。人们开始讨论AI的存在与发展是否会影响社会伦理道德,排挤人类生存空间。而在狂丸看来,人类真正应该恐慌的不是技术会如何变化,而是人类应该如何使用、引导AI的成长


很多人都会发出一个疑问:AI越来越强,那它会变坏么?答案是轻而易举不同的数据输入会训练出相应的人工智能,有人在训练AI分工协作,也有人在为它们树立奇葩的三观。目前最知名的AI故障之一就是聊天机器人Tay。她是2016年微软曾经尝试在社交平台Twitter上发布的一款聊天互动机器人,能够根据人类评论生成互动回答。


但Tay上线当日就出现了问题,由于微软没有设置过滤系统,在人类的有意引导下,Tay不但学会了骂人,还支持种族灭绝,甚至发出支持希特勒的言论。


更严重的是美国惩戒犯罪者管理分析AI,Compas。它对黑人的误判率是白人的两倍,似乎天生对黑人存在种族歧视。尽管提供该软件的Northpointe对此表示否认,并拒绝透露该项目的内部运作方式,但很显然,这种「种族歧视」学习来自人类社会,或是公司有意训练,或是来自对其他案件审判的分析。


而麻省理工学院媒体实验室为了证实错误数据对AI的影响,干脆训练出了一款精神病AI:诺曼


诺曼的思维是完全扭曲的,他在接受罗夏墨迹测验时的反馈完全符合一个变态的标准。下图在他看来,代表着男子触电死亡。


而这一张则是男子被拉进面团机。


这种思维代表着,如果你看到是一把刀,那么诺曼看的是有人会被刀捅死。


诺曼的出现曾一度引起网友的惊慌,但问题其实依然出自人类。麻省理工给诺曼的训练数据全部来自Reddit论坛中关于死亡、死尸的阴暗向内容,而其结果自然就是制造了一个「人工智能变态」。这种情况很类似科幻电影中,机器人按照人类意愿为了保护人类而监禁人类的行为——它无法判断对错,只能按照引导行事。


简单的说,目前的AI的水平与科幻电影中的「智能」还有一定距离。它们现在如同是一张白纸,人类放入什么资料,它们就会输出什么资料。所以无论是AI学会了团队合作,或是预测生死,亦或是成为变态,目前都没什么可怕的。可怕的是人类自己不计代价的好奇心,与自身难以掌控的作死欲望。


往期精彩文章

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存