美国防部发布《负责任人工智能战略》详细措施涵盖AI产品全生命周期
【学术plus2021新春大礼包】|2019学术大礼包丨加入学术plus丨2018学术大礼包丨2017不可以错过的重磅报告们
2022年6月22日,美国国防部网站发布《国防部负责任人工智能战略和实施路径》(U.S. Department of Defense Responsible Artificial Intelligence Strategy and Implementation Pathway),该文件包含负责任的人工智能(RAI)战略和实施路径两个部分,将指导美国防部制定实施人工智能基本原则的战略,及如何利用人工智能的框架。
美国国防部负责任人工智能战略和实施路径编译:学术plus高级观察员 TAO
全球首个人工智能治理测试框架和工具集“A.I. Verify”上线!
内容主要整理自外文网站相关资料
仅供学习参考,欢迎交流指正!
文章观点不代表本机构立场
*****
阅读英文原文/完整报告
请点击文末:阅读原文
1.背景
人工智能技术的发展已经广泛应用于经济、金融、生产等社会生活的各个方面。此外,人工智能虽然也可应用于作战数据分类与预测、敌我目标识别、作战数据生成模拟、智能作战决策、无人作战平台等领域,提高信息处理的速度、效率和准确性,但其系统也存在一定的潜在风险。
2019年10月,美国国防创新委员会投票通过了一份名为《人工智能原则:国防部人工智能应用伦理的若干建议》,文件中提出了“负责、公平、可追踪、可靠、可控”五大原则,以及对于美国国防部未来如何在人工智能系统中应用道德规范的12条建议。强调国防部应确保技术专家对人工智能的技术、开发过程和操作方法有足够理解;应避免偏见,以防在开发和部署战斗或非战斗人工智能系统时对人造成无意伤害等。
2020年5月,国防部决定采纳这5大原则,无论作战还是非作战人工智能系统,均须遵守以上原则。
2021年5月,美国国防部发布备忘录,确定了制定实施负责任人工智能(RAI)的基本原则,包括RAI治理、作战人员信任AI、产品和采购生命周期、需求验证、建立RAI生态系统、AI人才队伍建设。
2022年6月,美国国防部网站发布《国防部负责任人工智能战略和实施路径》,以指导美国防部制定实施人工智能基本原则的战略以及如何利用人工智能的框架。
《国防部负责任人工智能战略和实施路径》文件包含负责任的人工智能(RAI)战略和实施路径两个部分。
2.原则与实施
负责任人工智能战略
-原则-
国防部负责任人工智能的期望最终状态是“可信”,可使美国国防部在一系列作战和非作战应用中的能力现代化,国防部也积极寻求使人工智能实现更加安全和高效的方法。根据2022年国防部副部长负责任人工智能备忘录的指示,国防部实现负责任人工智能要遵循6个原则。
-实施-
2.1 RAI治理
原则:确保国防部范围内严格的治理结构和流程,以便进行监督和问责,并明确国防部关于RAI的指导方针和政策以及相关激励措施,加速国防部范围内RAI的采用。
目标:考虑人工智能技术将被使用的环境,将治理结构和过程现代化,以实现国防部人工智能使用的持续监管。
实施:构建组织级的能力以改善国防部人工智能的监管和审计;为国防部负责任人工智能治理架构提供工具和资源支持,包括协调和定期的知识共享;确保负责任人工智能融入国防部战略和规划中;更新国防部作战能力评估过程,以支持国防部人工智能伦理原则的实现。
2.2 作战人员信任
原则:通过教育、培训、建立试验、鉴定以及验证和确认(TEVV)框架,并将TEVV框架融入到实时监控、算法信任度度量、用户反馈中,以确保作战人员对AI的信任。
目标:实现系统操作人员对技术熟练度和熟悉度的达到标准级别,以实现对人工智能能力和人工智能赋能系统的信任。
实施:构建鲁棒的TEVV生态系统和对应的基础设施,以安全地开发人工智能能力;开发最佳实践以融入作战人员和系统反馈,通过人工智能全生命周期、足够的文档和训练,明确人工智能能力中开发人员和用户的角色和责任。
2.3 人工智能产品和采购生命周期
原则:通过系统工程和风险管理方法为人工智能产品采购全生命周期开发工具、政策、流程、系统和指南,以同步企业负责任人工智能的实现。
目标:确保人工智能项目中考虑、并采取了措施来缓解相关风险,减少意外结果产生的可能性,同时确保人工智能研发满足国防战略的要求。
实施:开发负责任人工智能相关的采购资源和工具,比如在采购公告和合同中采用标准语言,使用国防部适应性采购路径的最佳实践,使得国防部可以识别和缓解采购和维护过程中的风险;采用人工智能开发的行业最佳实践,通过开发和应用根据、方法、最佳实践来识别和缓解人工智能产品全生命周期人工智能能力相关的风险。
2.4 需求验证
原则:将负责任人工智能纳入所有适用的AI要求中,确保RAI包含在国防部AI能力中。
目标:通过需求验证过程确保使用人工智能的能力在解决了相关人工智能风险后与作战需求是一致的。
实施:在更新或开发策略和计划时通过识别责任、权威方、资源等,将人工智能风险考虑纳入到国防部联合能力需求过程中;开发可修改的过程,项目可以依据该过程来定制人工智能相关的可测试的、作战相关的需求.
2.5 建立RAI生态系统
原则:建立鲁棒的国家和全球负责任人工智能生态系统,以改善政府间、学术界、工业界和利益相关者的合作,并促进基于共同价值观的全球规范的形成。
目标:通过国内和国际参与来促进负责任人工智能设计、开发、部署和使用。
实施:在负责任人工智能原则和国防部人工智能伦理原则方面,国防部、情报机构、其他政府机构之间合作开展;与产业界、学术界开展合作促进负责任人工智能的开发、采用和实现;把负责任人工智能融入到国际合作中,以促进共享价值、最佳实践和全球互操作。
2.6 AI人才队伍建设
原则:建立、训练、配备和留住RAI人才队伍,以确保强有力的人才规划、招聘和能力建设措施。
目标:确保所有国防部人工智能人才对人工智能技术、开发过程、以及实现负责任人工智能的操作方法具有适当的理解,这也是对2020年国防部人工智能教育战略的补充。
实施:参与开发国防部人工智能人才管理框架,支持负责任人工智能实现所需的军事和非军事人才的识别、招聘、培训提升;将负责任人工智能实现相关的课程补充到国防部现有人工智能人才培训中;通过兴趣社区和专业的机会来构建国防部负责任人工智能的能力;调整管理结构和流程,持续监督国防部人工智能使用。
3.评述
当前,美国人工智能探索步伐加快。2022年6月,DARPA启动了In the Moment项目,旨在将人工智能技术引入行动决策过程中。这也表明,相关探索逐渐从辅助向决策过程转变。随着AI应用的深度和广度不断增加,尤其是将人工智能技术引入作战决策过程,人工智能伦理问题是亟需解决的问题,因此这可能开启由人工智能(算法)决定人生死的先例。
无论是国防部人工智能伦理原则,还是负责任的人工智能,都表明美国人工智能领域探索正在从实验室走向真实作战场景应用。美国国防部负责任的人工智能(RAI)战略是在人工智能原则基础上的扩展,而实施路径从人工智能产品全生命周期出发,在RAI治理、作战人员信任、人工智能产品和采购生命周期、需求验证、建立RAI生态系统、AI人才队伍建设等六个方面提出了构建负责任人工智能的具体路径,确保所有国防部人工智能人员理解实施人工智能的技术、开发过程和操作方法,以创建可信的人工智能系统和人工智能赋能的应用。
(全文完)
参考链接:
https://media.defense.gov/2022/Jun/22/2003022604/-1/-1/0/Department-of-Defense-Responsible-Artificial-Intelligence-Strategy-and-Implementation-Pathway.PDF
关注全球顶层战略
聚焦中国电科四大板块
(一)大国竞争篇
(二) 战略科技篇
(三) 国防军事篇
《中国电子科学研究院学报》欢迎各位专家、学者赐稿! 投稿链接 http://kjpl.cbpt.cnki.net 邮箱:dkyxuebao@vip.126.com