《人工智能的军事应用》不确定世界中的伦理问题
点击下方小卡片关注情报分析师
今天小编为大家介绍兰德公司发布的重要报告《人工智能的军事应用》,报告的作者研究了人工智能(AI)的军事应用,并考虑了其伦理影响,调查了广泛归类为人工智能的技术种类,考虑它们在军事应用中的潜在优势,并评估这些技术带来的道德、运营和战略风险。
报告在比较了美国、Z国和俄罗斯的军事人工智能开发工作后,作者研究了这些国家对禁止或规范自主武器开发和使用的建议的政策立场,自主武器是武器控制倡导者认为特别令人不安的人工智能的军事应用。
报告发现潜在的对手越来越多地将人工智能整合到一系列军事应用中,以追求作战优势,他们建议美国空军组织、训练和装备,以便在一个由人工智能授权的军事系统在所有领域都处于突出地位的世界中获胜。
尽管禁止自主武器的努力不太可能成功,但各国越来越认识到,与军事人工智能相关的风险将要求人类操作员在其使用中保持积极的控制。
主要发现
人工智能在军事系统中的集成可能会稳步增加
各种形式的人工智能对作战应用产生了严重的影响。
人工智能将在战争中提出新的伦理问题,而深思熟虑的关注可能会减轻最极端的风险。
尽管联合国正在进行讨论,但在短期内不太可能对军事人工智能进行国际禁令或其他监管。
美国在军事人工智能领域面临重大国际竞争
Z国和俄罗斯都在追求军事化的人工智能技术。
军事人工智能向其他国家和非国家行为者的潜在扩散是另一个令人担忧的领域。
军事人工智能的发展带来了一系列需要解决的风险
从人道主义的角度来看,道德风险很重要。
运营风险源于对人工智能系统的可靠性、脆弱性和安全性的质疑。
战略风险包括人工智能增加战争的可能性,升级正在进行的冲突,并扩散到恶意行为者。
美国公众普遍支持继续投资军事人工智能
支持部分取决于对手是否使用自主武器,系统是否为自卫所必需的,以及其他背景因素。
虽然对道德风险的看法可能因威胁形势而异,但对于人类问责制的必要性,存在广泛的共识。
责任点应由指挥官承担。
人类参与需要发生在每个系统的整个生命周期中,包括其开发和监管。
建议
组织,训练和装备部队,以便在一个由人工智能授权的军事系统在所有领域都处于突出地位的世界中获胜。
了解如何解决技术人员,私营部门和美国公众表达的道德问题。
开展公众宣传,告知利益相关者美国军方致力于减轻与人工智能相关的道德风险,以避免公众强烈反对以及由此产生的对Title 10行动的任何政策限制。
跟踪参与《联合国某些常规武器公约》的政府专家组的讨论,并跟踪国际社会利益攸关方所持立场的演变。
寻求与盟国和合作伙伴在军事人工智能的开发和使用方面加强技术合作和政策一致性。
探索与Z国、俄罗斯和其他试图发展军事人工智能的国家建立信任和降低风险的措施。
目录
第一章
介绍
第二章
人工智能的军事应用
第三章
军事人工智能的风险:道德,运营和战略
第四章
美国的军事人工智能
第五章
中国军事人工智能
第六章
俄罗斯的军事人工智能
第七章
美国公众对军事人工智能态度的评估
第八章
二. 调查结果和建议
附录 A
专家访谈:方法、数据和分析
附录 B
公众态度调查:方法、数据和分析
完整报告中英文各229页已上传至情报学院知识星球
长按识别下方二维码加入知识星球APP下载
情报学院有3000+专业资料可供下载
往期推荐
点个赞,证明你还爱我