查看原文
其他

特朗普签署美国AI倡议,人工智能独立审计势在必行

plus评论员 学术plus 2022-04-11


2019加入学术plus2018学术大礼包丨2017不可以错过的重磅报告们



2月11日,美国总统特朗普签署了一项启动美国AI Initiative(倡议)的行政命令,该倡议会将美国科研的重心转向人工智能技术,并预估在未来半年内发布相关细节。知情人士透露,该计划包含科研和发展、基础设施、管理、失业问题、国际参与共五部分主要内容,但外界对该倡议的评论仍是喜忧参半。



同时,自2018年5月亚马逊人脸识别软件错将28名议员识别为犯罪分子后,人工智能技术带来的隐私泄露、网络安全事件、设计和决策中的不道德选择、以及有偏见的数据集等问题不断涌现。因此,政府部门及相关机构相继出台了人工智能的审计标准和监督法规。而针对AI自动化的独立审计也将是解决其安全相关问题以及人工智能治理的必要过程。


文章仅供参考,观点不代表本机构立场。





作者:学术plus高级评论员  张涛



人工智能作为最具颠覆性和变革性的技术,正不断渗透进社会生产生活的各个方面,对国家政治、经济、文化等方面带来极为深远的影响,持续引发全球政界、产业界和学术界的高度关注。目前,人工智能已上升到国家层面的激烈博弈,越来越多的国家争相制定发展战略与规划,以美欧为首的世界主要国家进入了全面推进人工智能发展的全新战略时代,人工智能竞争趋向白热化。



01

特朗普签署美国AI倡议计划

  


2月11日,美国总统特朗普签署了一项启动美国AI Initiative(倡议)的行政命令,该倡议会将美国科研的重心转向人工智能技术,以确保美国在人工智能领域的领先地位。目前还没有关于该倡议的具体细节,但在未来半年内会根据时间节点来发布相关的交付物和相关细节。

 

 

美国是继18个国家之后发布AI国家战略之后发布的AI Initiative,知情人士透露该计划共有5部分内容,分别是:


1) 科研投入。管理层会要求相关政府机构将相关投资优先发展人工智能,但没有详细提出白宫要求支持该计划的具体资助金额(具体的资助级别将由于国会最终决定)。该计划呼吁支持和加大AI科研和发展的支出,并创建政府在AI支出方面的概览图。

2) 资源倾斜。政府机构向科研人员提供数据、算法和计算资源方面的帮助。

3) 管理标准。白宫科技政策办公室(White House Office of Science and Technology Policy)和其他组织会共同起草AI通用指南,以确保人工智能使用是安全其符合伦理。官方并没有提出要解决的具体问题,但称会有来自食品药品管理局、国防部和其他相关机构专家的参与。知情人士称担忧的是如何保护数据隐私的问题。

4) 人才培养。白宫人工智能咨询委员会和就业培训委员会会继续进行劳动人员的教育,并要求相关机构提出计算机科学方面的奖学金和培训项目。

5) 国际参与。希望能与其他国家在不损害美国的利益和放弃美国科技优势的前提下与其他国家协同发展AI。但是该知情人士未透露该计划如何解决中美的利益以及科学家、工程师和学生的移民和签证问题。


该倡议计划与特朗普团队的AI战略步骤保持高度一致:2018年5月,白宫召开“美国产业人工智能峰会”;9月,国防部DARPA称已投入20亿美元用于资助人工智能的研究;同月,白宫就更新现有的《国家人工智能研发战略计划》(National AI R&D Strategic Plan)向公众征求意见。



02

应对中国AI威胁?



从世界主要国家的人工智能战略布局来看,美国和中国是布局较早、投入相对较多的国家。


资料来源:国际技术经济研究所、清华大学


从发展来看,美国人工智能的发展仍然处于全球领先地位,而我国人工智能的发展目前处于全球第一梯队。在学术论文方面,根据Scopus的数据,2017年中国发表的人工智能领域的论文占25%,美国占17%。根据Artificial Intelligence Index发布的2018年度AI Index报告,我国人工智能研究论文发布数量为全球第二, Elsevier预测未来五年内,我国发布的论文数量将领先全球。在人工智能的技术和应用方面,我国在计算机视觉的发展上一直保持全球领先地位,并加强了在工程技术、农业科学和医学领域的研究和应用。【重磅】中美欧2018人工智能政府文件(附全文)


总的来说,特朗普签署和启动美国AI Initiative技术是为了确保美国人工智能技术的全球领先地位,防止被我国赶超。主要原因是我国人工智能技术和应用的快速发展引起了特朗普政府的担忧和恐惧。


但外界对特朗普政府的该计划也是喜忧参半。因为该计划不包括任何资金细节,但政府认为应该由国会来拨款。对此,麻省理工学院(MIT)教授埃里克·布林约尔松表示该计划在实践过程中可能会遇到很大的挫折。纽约大学凯特·克劳福德教授认为,这项行政命令“正确地突出了人工智能作为美国决策的主要优先事项”,但缺乏学术界和民间领袖的参与。


鉴于面部识别等人工智能技术有可能侵犯隐私和公民自由,这种情况尤其令人担忧,而且特朗普政府在公民隐私与自由方面的口碑并不好。

  

 

 03 

AI自动化 离谱错误频出



对各种形式的人工智能和自动化系统的设计和实现进行治理和独立监督即将对信息科技和计算领域带来巨大的影响。随着互联网和人工智能技术的不断进步,越来越多的企业开始部署和应用人工智能技术,同时隐私泄露、网络安全事件、设计和决策中的不道德选择、以及有偏见的数据集等问题不断涌现。


2018年5月,亚马逊的人脸识别软件将2500名犯罪分子与国会议员进行比对时,错将28名议员识别为犯罪分子。


图:亚马逊人脸识别软件错将28名美国国会议员识别为犯罪分子,来源:https://www.aclu.org/blog/privacy-technology/surveillance-technologies/amazons-face-recognition-falsely-matched-28



2019年2月15日,外媒CNET报道,中国深圳的深网视界(SenseNet)发生大规模数据泄露事件。泄露的人脸识别数据库有超过256万用户信息,包括身份证号码、人脸识别图像、地址、出生日期、识别其身份的数据,可以被任何人查看(如下图所示)。

  

图:深网视界数据库允许完全访问


此外,美国部分法院所采用的犯罪风险智能评估系统COMPAS则被证明存在着种族歧视的问题。在该系统中,黑人被错误评估为具有高犯罪风险的几率是白人的两倍,在犯罪情节相似的情况下,黑人罪犯将更有可能因系统的错误标记而被法官判处更重的刑罚。

 

 



04

人工智能的监管与审计



总的来看,各国的立法机构、监管机构以及专门进行人工智能安全(safety)研究的学术机构和企业界都已经开始尝试解决这些问题,并以实现的指南(guidelines)形式发布。IEEE的Ethically Aligned Design(伦理一致性设计)就是这样的一个黄金标准,它使用开源技术融合了一些关键的伦理指南。标准本身深入分析了创建从儿童和学生数据管理到算法歧视的13个不同的标准集的过程。


其他国家和组织也在跟进。欧盟最近就成立了一个伦理指南工作组(ethical guidelines working group),其中一项职责就包含具有里程碑意义的2017年阿西洛马会议(Asilomar Conference)的成果阿西洛马人工智能原则(Future of Life's AI principles)


此外,包括谷歌在内的互联网巨头也都开始创建企业内部的伦理指南和原则。2018年11月,微软发布微软人脸识别研究工作需要遵循的公平性、透明性、问责制度、非歧视性、知情同意、合法监视等六项原则。12月,谷歌全球事务高级副总裁肯特·沃克称,在能够制定出相关政策以阻止刷脸AI技术被滥用前,谷歌将暂不会出售该技术和产品。并且微软和谷歌都建立了人脸识别研究工作需要遵循的相关原则。


 

2018年12月19日,由欧洲委员会人工智能高级专家组(AI HLEG)制定的人工智能道德准则草案发布,其最终版本将于2019年3月发布。


 

2019年1月23日,新加坡通讯及新闻部长易华仁在瑞士达沃斯世界经济论坛上宣布推出人工智能监管模式框架(Model AI Governance Framework),并将开展公共咨询活动,供企业试用并提出反馈。该框架主要从内部监管、人工智能抉择的风险管理、营运管理,消费者关系管理四个方面拟定对企业的指导原则及措施,坚持两个关键主导原则:一是协助企业确保以人工智能做出的抉择能有合乎解释的依据、具有透明度,并且对消费者公平;二是确保人工智能的使用做到以人为本。而这些的根本就是人工智能审计

世界各地的国家和公司都开始参与人工智能和自动化的治理,这也说明了治理和监督人工智能和自动化的重要性。对人工智能系统的独立审计将是下一波治理的重点和趋势——genuine accountability真正的责任。独立审计将基于全球公认的指南和准则对人工智能系统进行审计,确保应用人工智能和自动化技术的企业的合规性。

 


05

ForHumanity

人工智能独立审计模式



ForHumanity是一个非营利组织,在世界顶尖的审计和保险公司、科研机构和公司之间处于中心位置。该组织的运营费用来源于想要参与审计的企业的捐赠,与付费评测(审计)的商业模式不同,企业捐赠的费用只用于审计和评级,ForHumanity并不从中盈利。因此,ForHumanity就可以纯粹地去探索以下领域的最佳实践(best practices):


Ethics / 伦理

Bias / 偏见

Privacy / 隐私

Trust / 信任

Cybersecurity / 网络安全


ForHumanity的审计是0或1的,也就是说对应审计规则只有合规和不合规两个结果。当然也可能会出现一些测试的灰色领域(gray areas),就是指无法判定合规或不合规的情况,这也是测试人员的测试目标。



如果好的、安全的、负责任的人工智能审计是盈利的,那么这样的审计可能就会很危险,测试的结果也可能是不中立的。独立审计是检验企业最佳实践合规的最好机制,企业可以以此对系统进行修改,缓解或对风险进行降级。随着人工智能和自动化技术在政府和企事业单位的广泛应用,针对人工智能和自动化系统的独立审计将是解决系统中存在的安全相关问题以及人工智能治理的必要过程。



 

相关来源链接:

https://www.sciencemag.org/news/2019/02/trump-launch-artificial-intelligence-initiative-many-details-lacking

https://cacm.acm.org/blogs/blog-cacm/234723-governance-and-oversight-coming-to-ai-and-automation-independent-audit-of-ai-systems/fulltext




(全文完)

作者专栏 

张涛,学术plus高级评论员,专注研究人工智能产业技术与网络信息安全。

美新一轮技术出口管制,或得不偿失美国国会发布《美国未来四大战略威胁》人工智能监管指南关于区块链你必须知道的:10个行业案例+核心问题与解决方案中美贸易战下,日本被这4个困境团团围住【Nature】如果AI可以预测和限制战争?【麦肯锡】政策制定者必读的AI报告:人工智能时代应解决这三件事美国发布《武器系统网络安全报告》欧盟发布国家网络安全战略评估工具,涵盖15个目标142个问题美国发布AI白皮书《机器崛起:人工智能及对美国政策不断增长的影响》网络战,没有规则!美国《国家网络安全应急措施》四大挑战与十项措施Deepfakes变脸术 竟成为美国国家安全的新威胁【布鲁金斯】2020-2040年军事技术变化预测【五眼情报联盟】最新发布:加密数据三原则机器学习的偏见牛津大学在思考:如何让AI成为一个好人?无人驾驶,法律你准备好了吗?……长按识别二维码查看更多观点或进入公众号“个人专栏”结识“学术plus”专家作者团队。



  展望2019  

人间不合逻辑,同志尚须努力2019年的世界与中国丨智库2019:救赎与涅槃丨2019 全球财经关键词丨2019 法学界大事件丨2019 全球财经关键词丨2019 后真相时代的痛点丨2019 世界战斗机如何发展?


 点击领取:2018学术大礼包 


来吧!加入学术plus




    声明:版权归原作者所有。文章观点不代表本机构立场。图片均来自与网络。


 

  • 中国电子科学研究院学报》欢迎各位专家、学者赐稿!投稿链接

     http://kjpl.cbpt.cnki.net

  • 学报电话:010-68893411

  • 学报邮箱:dkyxuebao@vip.126.com

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存