其他

“全杀戮机器人”很快就要降临?| 专家警告:杀人机器人军备竞赛或导致对平民屠杀

2017-11-22 蓝海长青科技发展 智能巅峰

来源:机器人大讲堂


最近

我们被机器人吓坏了

先是出现一个号称要毁灭人类的

索菲亚



不仅被授予了全球第一个“公民身份”

还要蓄意统治全人类




又出现了一个会后空翻

动作秒杀绝大多数人类的

机器人Atlas



真是一波未平一波又起

使人类对于机器人的恐惧

也越来越高


然而,真正的恐惧不在于我们这些平民,而是真正对AI和机器人更加了解的“科学家”们。上周在“特定常规武器公约”大会上,就有组织公布了一个堪称惊悚的视频——“全自动杀戮无人机”


(以下内容为虚假影片,片段并非真实存在,小伙伴们可以‘放心’观看)



一个比手掌小很多的无人机

给它装上聪明的AI

就会成为一个

有自主意识的机器人




给这个无人机装上杀伤性武器

它就会变成全自动杀戮机器人



无人机太小

您是否在上面两个动图中

都看不太清它的存在?


没错,这就是恐怖之处

非常小而且不用预先瞄准

只需抛到空中

它就可以自己识别要杀的人

瞄准关键部位

一击即中



像不像杀人狂魔?


然而

最恐怖的不止于此

因为无人机足够小

它可以被一个更大的无人机携带

帮助小无人机穿墙破壁



或者干脆被一个大飞机携带

成千上万的自主杀戮武器

便能倾泻而下



很恐怖是不是?但幸亏这只是一个虚构的视频。是伊隆·马斯克和史蒂芬·霍金等人支持的“未来生活研究所”发布的。


终于明白为什么马斯克和霍金

一直在说AI威胁论

因为他们认为看得到的恐惧

就在不久的将来


https://v.qq.com/txp/iframe/player.html?vid=f0507kdo7gw&width=500&height=375&auto=0


上面是完整的视频。因为后面太惊悚,所以我要再次声明:视频是杜撰的。是他们害怕未来将会发生的事。


所以他们在大会上宣称“直接封杀自动化武器”。


这段视频引来了不小的轰动。我们知道关于AI的存在,一直存在两个派别:乐观派和悲观派。而且两个派别都有相当多的科技大佬“战队”。


悲观派的典型代表马斯克和霍金


霍金曾经公开表示:


“人工智能可能自行启动,以不断加快的速度重新设计自己。而人类局限于缓慢的生物进化过程,根本无法竞争,最终将被超越”;“彻底开发人工智能可能导致人类灭亡”


马斯克与Facebook CEO扎克伯格的网上论战,也在前段时间引起了不小的关注度。


马斯克:


“我认为我们应当格外警惕人工智能。如果让我说人类当下面临最大的威胁是什么,我觉得是人工智能无疑”


扎克伯格则认为:


马斯克的AI“威胁论”看法太消极,是极不负责任的,认为对方根本没理解什么是AI。


当然马斯克的反对者不止扎克伯格一位。亚马逊CEO贝索斯曾就AI“威胁论”与马斯克发生过公开辩论。


贝索斯认为:


“或许在发展初期,人工智能可以增强我们的能力,促进人类文明,这会让人类感觉舒服,并最终依赖这项技术”。


谷歌母公司Alphabet执行董事长埃里克·施密特也曾公开强力反击马斯克。表示马斯克是在“杞人忧天”。并说:


“如果你觉得人工智能在智商上超越人类后就将毁灭我们的种族,那你科幻电影一定是看多了”


对于这个惊悚的视频,IEEE的撰稿人Evan Ackerman很快便发表了公开文章反对这一行为。他表示:


那些颇有声望的机器人和 AI 研究者居然会支持这种哗众取宠的作品,它们要的只是吸引眼球,关于实际问题则根本没有传达任何有用信息。这样的视频根本不是冲着表达事实而出现的,它们就是要煽动和培养人们对 AI 和机器人的恐惧。同时,它还占据了道德制高点,好像你反对这种观点就是与恐怖分子沆瀣一气。此外,如此多专家为该视频背书更是会让公众思想混乱,他们会对所有机器人产生恐惧,而这正是机器人专家们长期警惕的。


禁止攻击型自动化武器是个复杂的问题,双方都有自己的观点,到底孰对孰错需要仔细衡量。这样的观点我非常赞同,想要一个更安全的未来,这样的讨论必不可少,但通过恐怖视频搞恶意中伤就不可取了,这会让许多人加深自己对机器人的负面印象。


小编只能作为一个消息的搬运工,孰对孰错真的不敢妄下定论。


AI带来的威胁,我们每个人心里有点恐惧,但也都抱着对它美好的期待。但无论如何,什么都无法阻止人类的进步。让我们一路走一路看,相信万能的人类,能协调好这中间的分歧......




蓝海长青科技发展



专家警告:杀人机器人军备竞赛或导致对平民屠杀


来源:参考军事  


英国《明星日报》网站11月17日发表了题为《杀人机器人军备竞赛》的报道。


一名人工智能专家透露,美国、英国、俄罗斯、以色列等国正卷入一场打造杀人机器人军团的竞赛。


从自主射击枪械和无人机到遥控超级坦克,美国和俄罗斯的原型机器人已经打造成功并整装待发。而人形机器人上战场也不过是几十年内就会出现的事情——并为这个世界勾勒出可怕的前景。


英国设菲尔德大学的人工智能与机器人学荣誉教授诺埃尔·沙尔基对本网站记者说:“一场军备竞赛已经拉开序幕。”


沙尔基说:“我们现在看到,美国、以色列和俄罗斯(的杀人机器人军备竞赛)已经开始了。如果这些东西登场,那么它们随时可能意外触发战争。”


他还说:“怎样才能取缔它们?你完全可以把这些东西永远搁置起来,可它们只需再充一次电就能再次启动。”


如今,人工智能机器人正在全球掀起一股热潮。沙尔基教授担心,杀人机器人的研发可能也有着如此惊人的速度。因此,他正在领导一场禁止杀人机器人的全球运动。


在本网站披露了相关的最新进展——美国机器人做后空翻——后,这名专家警告说,俄罗斯的最新项目“绝对令人害怕”。


沙尔基表示:“还有很可怕的东西……俄罗斯人研发出了这个被称为‘超级坦克’的东西,而它是世界上最先进的坦克,领先很多。它绝对是一个拥有巨大破坏力的庞然大物,而且他们可以远程遥控它。他们还在努力以最快速度把它变成一种全自动的机器人。”


虽然自主武装机器人比人形机器人领先很多年,但沙尔基教授担心,可能出现的人形机器人也许会给世界带来灾难——导致对平民的大屠杀。


在警告杀人机器人的可怕后果时,沙尔基教授说:“这不可能符合战争法,它们能区分某个目标是军事目标还是民用目标吗?这是战争法的关键。”


他说:“杀死试图投降的人也是不允许的。我知道很多人以为投降就是举白旗,其实投降是指任何表明不再战斗的姿态,比如手无寸铁地躺在地上……但机器人无法对此加以区分。我个人最大的担心是,这会对全球安全造成怎样的破坏——因为一场此类武器的军备竞赛已经拉开序幕。”


能做后空翻的美国机器人



蓝海长青系列自媒体




您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存