其他
“全杀戮机器人”很快就要降临?| 专家警告:杀人机器人军备竞赛或导致对平民屠杀
来源:机器人大讲堂
最近
我们被机器人吓坏了
先是出现一个号称要毁灭人类的
索菲亚
▼
不仅被授予了全球第一个“公民身份”
还要蓄意统治全人类
▼
又出现了一个会后空翻
动作秒杀绝大多数人类的
机器人Atlas
▼
真是一波未平一波又起
使人类对于机器人的恐惧
也越来越高
然而,真正的恐惧不在于我们这些平民,而是真正对AI和机器人更加了解的“科学家”们。上周在“特定常规武器公约”大会上,就有组织公布了一个堪称惊悚的视频——“全自动杀戮无人机”。
(以下内容为虚假影片,片段并非真实存在,小伙伴们可以‘放心’观看)
▲
一个比手掌小很多的无人机
给它装上聪明的AI
就会成为一个
有自主意识的机器人
▼
给这个无人机装上杀伤性武器
它就会变成全自动杀戮机器人
▼
无人机太小
您是否在上面两个动图中
都看不太清它的存在?
没错,这就是恐怖之处
非常小而且不用预先瞄准
只需抛到空中
它就可以自己识别要杀的人
瞄准关键部位
一击即中
▼
像不像杀人狂魔?
然而
最恐怖的不止于此
因为无人机足够小
它可以被一个更大的无人机携带
帮助小无人机穿墙破壁
或者干脆被一个大飞机携带
成千上万的自主杀戮武器
便能倾泻而下
很恐怖是不是?但幸亏这只是一个虚构的视频。是伊隆·马斯克和史蒂芬·霍金等人支持的“未来生活研究所”发布的。
终于明白为什么马斯克和霍金
一直在说AI威胁论
因为他们认为看得到的恐惧
就在不久的将来
https://v.qq.com/txp/iframe/player.html?vid=f0507kdo7gw&width=500&height=375&auto=0
上面是完整的视频。因为后面太惊悚,所以我要再次声明:视频是杜撰的。是他们害怕未来将会发生的事。
所以他们在大会上宣称“直接封杀自动化武器”。
这段视频引来了不小的轰动。我们知道关于AI的存在,一直存在两个派别:乐观派和悲观派。而且两个派别都有相当多的科技大佬“战队”。
悲观派的典型代表马斯克和霍金
霍金曾经公开表示:
“人工智能可能自行启动,以不断加快的速度重新设计自己。而人类局限于缓慢的生物进化过程,根本无法竞争,最终将被超越”;“彻底开发人工智能可能导致人类灭亡”
马斯克与Facebook CEO扎克伯格的网上论战,也在前段时间引起了不小的关注度。
马斯克:
扎克伯格则认为:
马斯克的AI“威胁论”看法太消极,是极不负责任的,认为对方根本没理解什么是AI。
当然马斯克的反对者不止扎克伯格一位。亚马逊CEO贝索斯曾就AI“威胁论”与马斯克发生过公开辩论。
贝索斯认为:
“或许在发展初期,人工智能可以增强我们的能力,促进人类文明,这会让人类感觉舒服,并最终依赖这项技术”。
谷歌母公司Alphabet执行董事长埃里克·施密特也曾公开强力反击马斯克。表示马斯克是在“杞人忧天”。并说:
“如果你觉得人工智能在智商上超越人类后就将毁灭我们的种族,那你科幻电影一定是看多了”
对于这个惊悚的视频,IEEE的撰稿人Evan Ackerman很快便发表了公开文章反对这一行为。他表示:
那些颇有声望的机器人和 AI 研究者居然会支持这种哗众取宠的作品,它们要的只是吸引眼球,关于实际问题则根本没有传达任何有用信息。这样的视频根本不是冲着表达事实而出现的,它们就是要煽动和培养人们对 AI 和机器人的恐惧。同时,它还占据了道德制高点,好像你反对这种观点就是与恐怖分子沆瀣一气。此外,如此多专家为该视频背书更是会让公众思想混乱,他们会对所有机器人产生恐惧,而这正是机器人专家们长期警惕的。
禁止攻击型自动化武器是个复杂的问题,双方都有自己的观点,到底孰对孰错需要仔细衡量。这样的观点我非常赞同,想要一个更安全的未来,这样的讨论必不可少,但通过恐怖视频搞恶意中伤就不可取了,这会让许多人加深自己对机器人的负面印象。
小编只能作为一个消息的搬运工,孰对孰错真的不敢妄下定论。
AI带来的威胁,我们每个人心里有点恐惧,但也都抱着对它美好的期待。但无论如何,什么都无法阻止人类的进步。让我们一路走一路看,相信万能的人类,能协调好这中间的分歧......
蓝海长青科技发展
专家警告:杀人机器人军备竞赛或导致对平民屠杀
来源:参考军事
英国《明星日报》网站11月17日发表了题为《杀人机器人军备竞赛》的报道。
一名人工智能专家透露,美国、英国、俄罗斯、以色列等国正卷入一场打造杀人机器人军团的竞赛。
从自主射击枪械和无人机到遥控超级坦克,美国和俄罗斯的原型机器人已经打造成功并整装待发。而人形机器人上战场也不过是几十年内就会出现的事情——并为这个世界勾勒出可怕的前景。
英国设菲尔德大学的人工智能与机器人学荣誉教授诺埃尔·沙尔基对本网站记者说:“一场军备竞赛已经拉开序幕。”
沙尔基说:“我们现在看到,美国、以色列和俄罗斯(的杀人机器人军备竞赛)已经开始了。如果这些东西登场,那么它们随时可能意外触发战争。”
他还说:“怎样才能取缔它们?你完全可以把这些东西永远搁置起来,可它们只需再充一次电就能再次启动。”
如今,人工智能机器人正在全球掀起一股热潮。沙尔基教授担心,杀人机器人的研发可能也有着如此惊人的速度。因此,他正在领导一场禁止杀人机器人的全球运动。
在本网站披露了相关的最新进展——美国机器人做后空翻——后,这名专家警告说,俄罗斯的最新项目“绝对令人害怕”。
沙尔基表示:“还有很可怕的东西……俄罗斯人研发出了这个被称为‘超级坦克’的东西,而它是世界上最先进的坦克,领先很多。它绝对是一个拥有巨大破坏力的庞然大物,而且他们可以远程遥控它。他们还在努力以最快速度把它变成一种全自动的机器人。”
虽然自主武装机器人比人形机器人领先很多年,但沙尔基教授担心,可能出现的人形机器人也许会给世界带来灾难——导致对平民的大屠杀。
在警告杀人机器人的可怕后果时,沙尔基教授说:“这不可能符合战争法,它们能区分某个目标是军事目标还是民用目标吗?这是战争法的关键。”
他说:“杀死试图投降的人也是不允许的。我知道很多人以为投降就是举白旗,其实投降是指任何表明不再战斗的姿态,比如手无寸铁地躺在地上……但机器人无法对此加以区分。我个人最大的担心是,这会对全球安全造成怎样的破坏——因为一场此类武器的军备竞赛已经拉开序幕。”
能做后空翻的美国机器人
蓝海长青系列自媒体