人工智能在对经济社会造成巨大促进作用的同时,其存在的潜在风险不容小觑。政府对于人工智能领域的创新应持有包容态度,在迎接人工智能时代到来时,采取渐进方式进行监管创新,以确保监管规则的连续性。对于自动驾驶汽车,应采取包容的监管态度,在试点示范中逐步探索规范相关领域产品、服务及安全标准,倡导企业自律和社会监督。英国政府就提议将将汽车强制险的适用范围扩大到自动驾驶模式,以在驾驶者将汽车控制权完全交给自动驾驶系统时能为其安全提供保障。
【快评】我国加强人工智能监管的对策建议
为了保障人工智能产品与目标一致并能确保安全控制,监管部门对人工智能研发者应进行认证审批,强制要求其公布或提供与人工智能产品相关的安全信息,比如源代码、第三方测试结果等。在安全责任体系方面,政府可以从人工智能系统的开发者、生产者、销售者、使用者等角度,进行责任体系的设计。人工智能产品一旦出现安全问题,经过合法审批的开发者、生产者等将承担有限责任,而未经过审批的开发者将承担无限责任。用户在使用人工智能产品时,应遵守用户使用准则,如果由不当使用造成危害,用户也将承担相应的责任。
为了提高人们对人工智能产品的信任度,限制其自主度和智能水平是有必要的,至少要让人们在心理上认为其拥有对人工智能产品的主导控制能力。一些传统装备(如汽车、高铁)虽然在速度上已经实现超越,但人们并不认为它是不安全的,因为人们对这些装备的认识和理解足够深入,认为能够驾驭得了,即拥有绝对的控制力。同时,建议根据不同领域特点,定向发挥人工智能的某项特定优势或技能。比如,让数据分析处理等能力成为人们辅助决策的工具,但最终决策权仍需掌握在人们手中。这也是当前阶段提升人们对人工智能产品信任度的关键。
人工智能最大的威胁是当前人类尚难以理解其决策行为,未来失控的风险较大,而一旦失控则后果严重。正如衰老机制是内嵌于所有生命体中的必然,人工智能应该也存在自我毁灭机制,其否定该机制等同于否定其自身存在。可借鉴2016年Google公司提出要给人工智能系统安装“切断开关”的想法,相当于在其内部强制加入某种自我终结机制,一旦常规监管手段失效,还能够触发其自我终结机制,从而使其始终处于人们监管范围之内,能够防范系统性失控风险。
延伸阅读:更多人工智能主题请点击
【短波】杨婉云:加快人工智能研发,抢抓新一代科技和产业革命先机
赛迪智库系列专题文章,请在公众号后台回复以下关键词查看: |
转型升级:中国制造2025 |供给侧改革|工业强基|京津冀一体化 |一带一路 |长江经济带 |产能过剩 |产能合作 |工业增长新动力 |全要素生产率 |工业品牌 |工匠精神|隐形冠军|并购重组 |
工业创新:双创| 制造业创新中心| 颠覆性创新 |军民协同创新| DARPA |知识产权 |
政策创新:PPP|反电信诈骗|工业立法| 政府采购|电子政务|公共服务平台 |
新兴产业:互联网+|智能制造|服务型制造|增材制造|人工智能|虚拟现实|机器人新能源汽车|无人驾驶技术|智能汽车|大数据|分享经济|高端装备| 新材料|石墨烯|稀土 |
信息化:信息化|两化融合|物联网|智慧城市|信息消费|政府数据开放| 网络经济|通信技术|网络安全|互联网域名管理 |
节能环保:气候变化|污染治理|能源利用|节能环保|清洁生产|绿色发展| 用能权交易|循环经济 |
传统产业:食品|医药|船舶|纺织|钢铁|电子信息制造|航空航天| 安全产业|海工装备|光伏|芯片|工艺美术|危化品 |
国际贸易:走出去|FTA|TPP|贸易规则|加工贸易 |
更多精彩内容陆续更新,敬请期待! |