查看原文
其他

【布鲁金斯】半数美国人支持AI军事化

plus观察者 学术plus 2019-03-28



编者按

布鲁金斯学会于2018年8月19日至21日期间,对2000名成人互联网用户进行了美国全国民意在线调查,调查旨在回答:美国人在战争中是否应该使用人工智能技术这一问题,尤其是在其他国家已经在发展军事人工之智能的假设下美国人对这一问题的反应。这次调查数据及结果由学术plus编译,仅供参考。文章版权归原作者所有,观点不代表本机构立场。



作者:Darrell West

发布日期:2018年8月29日

编译:学术plus

原载:https://www.brookings.edu





态度鲜明的调查结果


据布鲁金斯学会研究人员进行的一项调查显示,30%的美国互联网用户认为人工智能技术应该用于战争,39%持反对意见,32%的人不确定。但是接近半数的美国人(45%)认为,如果对手已经在开发此类武器,美国也应该这样做,25%反对,30%的人不确定。



不同的性别,年龄和地理差异,导致了人们对这一问题认识的区别。如果对手开发这类武器,男性(51%)比女性(39%)更支持AI战争。与18至34岁的老年人相比,老年人(53%)更支持使用AI作战。与生活在西部的人(41%)相比,生活在东北地区(51%)的人最有可能支持这些武器。


AI应该基于人类价值观

三分之二(62%)的人认为人工智能应该以人的价值观为指导,而21%认为不用。男性(64%)比女性(60%)更认同AI应该遵循人类价值观。

谁来决定部署?

该调查询问谁应该决定如何设计和部署AI系统。19%认为一般公众有权利参与决定,其次是11%投票给私人公司领导者,9%的人认为立法者应该决定,7%的人认为应由软件编码员决定,4%的人支持法官来裁决。但更重要的是,被调查者中有半数不知道应该由谁做出决定。

但在其中,男性(14%)比女性(8%)更希望私人公司领导者做出人工智能决策。此外,来自东北地区(14%)的人比中西部地区(9%)表示他们更倾向私人公司领导人。

道德保障

调查中列出了多种AI道德保障方案。每种方案都各具优势和特色,但最受欢迎的是:人工智能道德准则(67%),AI审核委员会(67%),在受到伤害的情况下进行AI调解(66%),人工智能培训计划(65%),AI审计跟踪(62%)和招聘伦理学家(54%)。


(全文完)

点击阅读原文查看完整英文原文


 推荐阅读  军事AI的五大基石

人工智能时代的战略竞争

人工智能时代的军事效能

人工智能时代的政策制定

人工智能与国际事务

《人工智能与国际安全》

麦肯锡《AI对全球经济的影响》

机器学习的偏见

数据黑暗时代

社会工程威胁社会:剑桥分析的案例

人工智能、机器人和自动化

人工智能在海战中崛起

无人系统在美国海军的作战运用

人工智能的“算法问责制

布鲁金斯《人工智能改变世界》

人工智能如何影响核战争

兰德《人工智能对核战争的影响》

2018美国人工智能安全委员会法

《美国机器智能国家战略》

《AI、政治战与俄罗斯》


  • 中国电子科学研究院学报》欢迎各位专家、学者赐稿!投稿链接

  •  http://kjpl.cbpt.cnki.net

  • 学报电话:010-68893411

  • 学报邮箱:dkyxuebao@vip.126.com

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存