查看原文
其他

比核武器更难控制!AI技术军事化让世界更加危险



为防失联及浏览更多好文,请关注这个公众号

英媒文章称,人工智能技术的军事化,正在让世界更危险。


英国《经济学人》周刊9月7日发布的题为《人工智能与战争》的文章称,世界大国之间的竞争涉及很多方面,最令人担忧、但人们最不了解的一个方面是,使用人工智能的战争。


大国都在对军事化的人工智能投入巨资,从自动化机器人到在战争白热化时为将领们提供快速战术建议的软件,任何一方都不希望落在后面。正如五角大楼人工智能事务负责人上个月所说:“我不希望看到的是,未来我们潜在的对手拥有一支完全实现人工智能的部队,而我们却没有。


文章认为,具备人工智能的武器可以提供超人的速度和精确度,但它们也有可能打破力量平衡。为了获得军事优势,军队不仅将使用它们推荐决策,而且还让它们能够下达命令。这可能会产生令人担忧的后果。能够以比人类更快的速度思考的人工智能指挥系统可能会促使导弹以没有时间进行外交活动的节奏对航母和空军基地进行打击,而且其方式不会完全被操作人员所了解。最重要的是,人工智能系统可能会被黑客入侵,并被数据操纵。


▲未来人工智能技术军事化应用示意图(美国国防部网站)


在20世纪,世界最终找到了控制军事技术方式转变——即核弹的出现——的方法。全球灾难是通过三种办法的并用才得以避免的:威慑、军备控制和安全措施。许多人正在为人工智能寻找这样一个模板。不幸的是,它的用途有限——而且不仅仅是因为这项技术是新技术。


威慑的基础是一种共识,即如果动用核弹,将对双方构成灾难性风险。但人工智能构成的威胁不那么可怕,也不那么清晰。它可能会帮助突袭或挫败它们,死亡人数可能从零到数百万不等。同样,冷战时期的军备控制依赖于透明度,也就是有一定信心地知道对方到底在干什么的能力。与导弹发射井不同,不能通过卫星来监控软件。敌人可以探察到核弹头,但它们的威力不会被削弱。不过,向外界展示一种算法却可能破坏软件的有效性。双方可能会尽力误导对方。领导美国与苏联冷战时期军控努力的亨利·基辛格说:“对手对人工智能开发配置的无知将成为战略优势。”



这就剩下最后的控制——安全措施。核武库涉及复杂的系统,发生事故的风险很高。已经制定了一些协议,以确保武器在未经授权的情况下是无法使用的,比如自动防护装置,这意味着炸弹如果被过早投放,就不会引爆。需要更多思考类似的措施如何适用于人工智能系统,尤其是那些受托在混乱和前景不明朗的战场上指挥军队的人。


英媒评论称,这些规则必须体现的原则是直截了当的。人工智能必须反映人类价值观,比如公平,并且能够灵活应对诱敌之计。至关重要的是,要想确保安全,人工智能武器必须尽可能清晰明了,这样人类才能明白它们是如何决策的。在世界大国之间的对抗中,诱惑将是为了暂时的利益而走捷径。到目前为止,几乎没有迹象表明这些危险得到了足够重视——尽管五角大楼的人工智能中心正在雇用一名伦理学家。把战争留给计算机将使世界变得更加危险。


来源:参考消息

   

打赏请识别下面二维码,谢谢!

点击链接,我的文章推介:

我发表在公众号上的文章

我创作的有关毛主席的文章

我对发展和发展趋势思考的文章

美国打击华为事件后我写的系列文章

我的信息化文章

我有关历史的文章

我有关国际关系的文章

我有关经济方面的文章

我有关文化方面的文章

我有关哲学方面的文章

我有关政治方面的文章

我有关军事方面的文章

我有关科技方面的文章

我有关人性的文章

我群里的专题文章

我对新闻的评论文章

下面是精华文章

最厉害的创新大师

愚公移山的毛主席

赢美国,关键在什么?

中美交恶逼我自我革命

中美全面经济战已打响

世界性的大收缩在主导发展

抓住极大发展社会消费这个核心

为何这些顶级制度都产自这里呢?

在从未有过的大变局中我们如何应对

发展新产业改变利益特性解社会问题

发展集体性智慧是当下最核心的任务

亚当斯密分工理论怎就遭遇革命呢

美国用万亿关税关上“潘多拉盒子”?

华为让我们看到集体化发展新思路

赢中美贸易战根本在政治、打狗上

吃酸菜不酸是最好心态、最好政治

对哲学今后的定位发展的思考

香瓜没了,李嘉诚还摘吗?

华为这个大招真是绝了

这是要媲美二战?

下面是我非常经历的故事

我的《张口说世界》系列文章

下面是网络美文集合:

网络美文

大千世界

美丽的植物

可爱的动物

非常好的知识

中国文化的魅力

有关中国文字和文化的网络美文

以上图文版权归原作者/机构所有,若有侵权请留言

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存