【防务观察】专家警告未来自主武器或可自己选择并攻击目标
新浪科技讯 北京时间4月7日消息,在战场上使用自主武器能够大大减轻军人的负担,但有专家警告称,自主武器会对我们的安全造成一定的威胁。
研究人员在今年1月于瑞士达沃斯举办的世界经济论坛上表示,他们很担心这些战争机器会被用于不道德的军事行动中,成为黑客操纵的工具。
与完全受人类控制的无人机不同,未来的自主武器或许可以自己选择并攻击目标。
“这是我们去年提出的一系列新问题之一。”新南威尔士大学计算机科学与工程学院的人工智能教授托比?沃尔士(Toby Walsh)说道,“我们中的大多数人都认为,我们还没有能力制造有道德意识的机器人。最令人担忧的是,很多国家在最近这几年内就会将机器人用于实战当中,而我相信这些机器人都是没有道德观念的。”
为了让机器人具有“道德观念”,研究人员可以在编程时写入一些特定指令,防止它们成为害群之马。
例如,科幻小说作家艾萨克?阿西莫夫(Isaac Asimov)就曾写过一则名为《环舞》(Runaround)的短篇小说,其中提出了主宰机器人行为的三大定律。
“第一,机器人不得伤害人类,或因其不作为而使人类受到伤害。”
“第二,机器人必须遵守人类发出的指令,除非该指令违反了机器人第一定律。”
“第三,只要保护措施不违背第一或第二定律,机器人就必须尽可能地保护自己。”
虽然专家们认为这几条定律能帮助我们研发具有道德意识的机器人,但要在设计中运用这几条定律,最终还是要依靠机器人的创造者。
还有些人认为,我们的担心纯属多余。
《钢铁侠2》中的机器人(如图所示)也许和现实的差距并不大,但专家担心,一旦它们落入黑客手中,势必会在战场上引起严重的骚乱。专家们担心的不只是机器人设备本身,他们更担心黑客会侵入整个无人武器系统。
不管自主武器是否受人类控制,自主武器的系统自动化程度越高,受黑客入侵的风险也就越大。图为MQ-9“死神”无人机,一旦受到黑客入侵,就可能对错误的目标发起攻击。
“首先,这样的武器目前还不存在,”新美国安全中心伦理自治项目的首席研究员和主管保罗?斯加瑞(Paul Scharre)说道,“大多数武器系统还没有达到这样的智能水平,即使是最先进的系统也只能通过纠正来帮助我们击中目标,而无法自行选择目标。”
斯加瑞还指出,即使我们可以在战争中使用自主武器,要生产出符合交战规定的武器,也不是件容易的事情。
“就算它们的操作是合法的,自主武器还会带来严重的道德和伦理问题。让一台机器掌握生死大权,这样做真的正确吗?”斯加瑞说道。
“另外,就算自主武器是合法的、且符合道德的,它们也可能非常危险。万一出现机器故障,或是敌军黑进了自主武器系统,都会造成非常严重的后果。”
目前还没有任何国家使用自主武器,但有些国家已经开始在战区部署无人运输工具了。
如果黑客侵入了自主武器的防御系统,就可能在战场上引发可怕的骚乱。
“研究人员正在努力加强数据链接的编码,让自主武器与控制者之间的连接更加安全。” 《简氏国际防务评论》(Jane's International Defence Review)的编辑休?威廉姆斯(Huw Williams)说道,“但无论这些编码完善与否,担心都仍然存在,而且数据链接还是有被破坏的危险。”
不管自主武器是否受人类控制,自主武器的系统自动化程度越高,受黑客入侵的风险也就越大。
(来源:新浪科技,作者:叶子)
前沿君微信:tech9999
投稿邮箱:13355524@qq.com