查看原文
其他

人工智能影响国际事务的三种模式

chatham 学术plus 2019-03-28


编者按

2018年6月,英国皇家国际事务研究所发布报告《人工智能与国际事务》,分析了人工智能影响国际事务的三种模式,并给出了对策建议。现将报告摘要编译如下供您参考。下载pdf全文请点击“阅读原文”文章版权归原作者所有,不代表本机构观点。


本报告考察了人工智能的发展和应用可能引发的决策者面临的一些挑战。它汇集了人们对未来10 - 15年内,人工智能在特定国际事务领域 (军事,安全和经济)可能产生的影响。

该报告提出了一个框架。以界定和区分人工智能在国际事务中可能发挥的作用类型:这些作用被确定为分析性,预测性和执行性


在分析性作用中,人工智能系统可能允许更少的人员做出更高层次的决策,或者自动执行重复性任务,例如为确保条约合规性而设置的监视传感器。在这些角色中,人工智能很可能会改变人类决策者对世界的理解(在某些方面它已经发生了变化)

预测性可能会产生更严重的影响,尽管可能时间较长。可能会改变决策者和国家如何理解具体行动方案的潜在结果。如果这样的系统变得足够准确和可信,那么这可能会导致配备这种系统的那些参与者与没有这些系统的参与者之间存在权力差,并且具有显着不可预知的结果。


执行性人工智能在短期内不可能完全实现。尽管这方面的技术取得了快速进展,但完全自动化的车辆,武器和机器人个人助理等其他物理世界系统的监管,道德和技术障碍非常高。而从长远来看,此类系统不仅可以彻底改变决策的执行方式,更可以改变决策方式。 


建议


从中长期看,人工智能的专业知识不应只存在于少数国家。全球各国政府必须投资发展和留住本土的人工智能人才和专业知识,如果他们的国家要在当前主流的人工智能(大多集中于美国和中国)中保持独立,就应该努力确保在广泛的基础上培养工程人才,以缓解人工智能固有的认识偏见。


企业,基金会和政府应该分配资金来开发和部署人道主义目标的人工智能系统。人道主义部门可从这类系统中获得重大利益,这可能会减少紧急情况下的响应时间。因为用于人道主义目的的人工智能不太可能立即为私营部门赚钱,所以需要作出协调一致的努力,在非营利的基础上推动它们的发展。


理解人工智能系统的能力和局限性,绝不能局限于技术专家。应该尽可能广泛地提供更好的关于人工智能的教育和培训,而关键的是,应该尽可能广泛地提供人工智能,而对于开发这些技术的人来说,理解基本的道德和政策目标应该更为重要。


在公共和私人AI开发人员之间建立牢固的工作关系,特别是在国防部门,因为许多创新正在商业机构进行。确保负责关键任务的智能系统能够安全,合乎道德地执行这些系统需要不同类型机构之间的公开性。


必须制定明确的业务守则,以确保人工智能的优势可以广泛分享,同时对并发风险进行良好管理。在制定这些行为守则时,政策制定者和技术人员应该理解调控人工智能系统的方式可能与规范军火或贸易流动有根本的区别,同时也从这些模型中汲取相关经验教训。


开发人员和监管人员必须特别关注人机交互。人工智能和人类智能基本上是不同的,两者之间的接口必须仔细设计并不断审查,以避免在许多应用中可能产生严重后果的误解。 

(完)

下载pdf全文请点击“阅读原文”

如遇困难请在留言区留下邮箱


 推荐阅读 人工智能时代的政策制定

人工智能在海战中崛起

人工智能的“算法问责制

布鲁金斯《人工智能改变世界》

2018美国人工智能安全委员会法

《美国机器智能国家战略》

《AI、政治战与俄罗斯》


  【学术plus】 新添加号内搜索功能!快来试试!

进入公众号→点击菜单【智库扫描】→【搜搜文章】→输入关键词→一键检索文章。



【厚度】学术plus年终巨献:

2017年 你不可以错过的重磅报告们!


【兼职】神秘岗位正在向你招手,敢来么?


【重要】学报投稿必看!

《中国电子科学研究院学报》官方严正声明



  • 中国电子科学研究院学报》欢迎各位专家、学者赐稿!投稿链接

  •  http://kjpl.cbpt.cnki.net

  • 学报电话:010-68893411

  • 学报邮箱:dkyxuebao@vip.126.com

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存