未来10年将有350万个岗位被AI替代,如何规避人工智能潜在的伦理挑战
现代科技发展具备的不确定性、高风险性等特点决定了科技伦理问题的产生具有必然性。
以人工智能技术的发展为例,如果技术的发展推动智能机器人越来越像人类,这将会对目前社会的人际关系、家庭结构产生重大影响,甚至颠覆人类在人类活动中的主体地位。
机器人是否应享有人类的基本权利?是否应建立新的人机关系甚至人际关系的价值原则?
人工智能发展带来的伦理挑战
人工智能可以通过深度学习不断进化,它的颠覆性、复杂性以及社会关联性等特性所引发的伦理挑战和风险日趋凸显。
存在性风险对人类主体地位的挑战
当本应具备无自主意识的人工智能做出超出科研人员预期的行为并产生相应的伦理影响时,现有的伦理框架及人类的思维本质将因此面临极大的挑战。
随着人工智能的强智能化发展,人类有可能逐渐难以参与智能生产的过程,甚至最终成为智能机器的零件,人与机器的关系可能发生扭转,人工智能由此引发对人类传统伦理道德判断的颠覆。
数据泄露和信息泛滥带来的挑战
人工智能技术的基础是基于海量数据的算法设计和深度学习,而数据的采集和使用若管理不到位会导致数据安全问题。
当前互联网应用软件采集的个人信息维度多样,将一个人的多种信息整合归纳,多维度的数据轨迹足以为个人画像,这些信息如果被非法利用就会构成对他人隐私权的侵犯。
此外,当前的监控设备也因其便捷性被广泛使用,这些设施在便利工作生活、辅助安全保障的同时,收集并存储的信息如没有被合理监管,则将导致公民的个人隐私存在隐患。
权利与责任认定问题带来的挑战
人工智能的高度智能化系统如果被不正当利用或者失控可能会对人类社会产生威胁,随之而来的必定是技术研究与应用引发的责任归属问题。
麻省理工学院进行的“道德机器”测试曾提出无人驾驶的伦理困境,简单来看是由公众对行驶中不常见的一些情景进行判断,这些判断没有正确答案,但形成了无人驾驶汽车行动的依据,而由此产生的责任划分则难以明确。
因此,如果事先没有适当的权责划分,容易导致人工智能产品脱离社会伦理、法律规范,其可能扰乱经济社会秩序,造成更大危害。
人工智能的岗位替代带来的挑战
人工智能以其智能化、高效化,成为提高社会工作效率、提升经济效益的重要方式,实现对产业结构和社会分工模式的重构,也有可能造成大量人员的结构性失业,从而影响社会公平。
例如,制造大厂富士康在多个工厂和多条生产线已经实现了自动化,实现了24 小时的无人工厂,仅在昆山工厂就减员6万人。麻省理工学院发布研究报告称,过去20年,美国有36万—67万工作岗位被机器人夺走,未来10年,还将有350万个岗位被人工智能替代。
人工智能技术的应用对人类就业和财富分配观念带来的影响,对社会公平可能带来的损害,都引发了潜在的伦理风险。
人工智能伦理治理的国际经验
世界各国重视科技伦理对技术开发应用的规范,积极发布相关伦理道德准则。
推动形成全球化的人工智能伦理准则
2019年5月,OECD成员国批准了人工智能原则即《负责任地管理可信赖的AI的原则》,在此基础上,2019年6月,G20通过了联合声明以及《G20人工智能原则》。
制定法律法规引导和规范技术发展
各国通过研究制定与人工智能治理相关的法律法规,逐步对技术伦理进行规范引导。
通过建立共识机制,加强科研界自律
美国在研究制定人工智能相关法案的同时,主要通过科研界自身的共识机制来加强对人工智能科技伦理的监管。
这些原则的提出是人工智能领域科研人员达成的共识,通过加强技术伦理的规范为后续标准制定等工作提供参考。
实行企业自我约束的治理方式
美国人工智能技术全球领先,但对人工智能相关的伦理治理却谨慎立法和监管,主要通过企业自我约束,探索对人工智能伦理挑战的监管。
美国有代表性的高科技公司发出倡议,提出确保“负责任地使用AI”,并发起成立各类组织,研究人工智能发展应用的治理手段。
中国人工智能伦理治理的实践探索
在中国,随着人工智能技术的快速应用与发展,与之匹配的伦理治理体系还未建立,相关政策还需不断完善,科研人员的伦理自觉还有待提升,社会影响的应对方式还需探索。
主要进展
建立人工智能治理委员会
从2015年开始,中国通过顶层设计,有力地保障了人工智能的快速发展。
2019年,中国成立了由15个部门构成的新一代人工智能发展规划推进办公室,随后成立了国家新一代人工智能治理专业委员会,加强了对人工智能领域科技伦理的监督。
发布相关治理原则和规范
由于人工智能技术正处于快速发展期,过早地从法制角度进行强制性约束可能会影响技术的发展和应用,因此已制定的相关政策仅是原则性意见或通知,尚无具体管理制度。
中国人工智能学会伦理道德专业委员会正在计划针对不同行业的人工智能设立和制定伦理规范,针对一些具体技术应用领域,国家也出台了相关管理规范。
推动人工智能科研界建立共识
2019年,北京智源人工智能研究院正式成立了人工智能伦理与安全研究中心,相继出台了《人工智能北京共识》、《面向儿童的人工智能北京共识》等文件。
存在的问题
人工智能伦理治理体系亟待建立
与人工智能领域相匹配的管理、运行、保障、监督机制仍显滞后和发展缓慢,政府对人工智能伦理监管的顶层设计尚处于起步阶段。
目前国家新一代人工智能治理专业委员会正逐步探索构建治理体系,政府对于技术伦理的治理仍处于探索阶段,治理组织体系、监管机制、治理方案等都还不够成熟。
相关政策法规不健全
目前,相应的法律、道德规范尚未出台,这导致伦理道德风险防范在人工智能一环的体制缺失。
现有涉及人工智能的政策法规主要以原则性共识为主,随着新技术的应用,中国政府逐步在无人驾驶、数据隐私等方面制定了相应规定以指导相关技术发展,但关于人工智能领域伦理治理的系统性政策法规体系尚未建立。
科研人员的科技伦理自觉有待提升
据中国科学技术协会2018年发布的一项有关科技工作者科技伦理的调查报告显示,自认为对科研诚信之外的科技伦理规范了解较多的科技工作者仅占总体的5%。
以人工智能技术的发展为例,如果缺乏对技术伦理的重视,缺少有效措施的推进,不能让伦理成为保障人工智能有序发展的规则,则有可能引发人工智能广泛应用带来的负面效应,发生严重的社会伦理事件。
缺乏有效的社会公众沟通机制
公众出于朴素的社会伦理道德观念会对新兴技术产生怀疑和恐惧,甚至反对新技术的应用。
任何一项科学技术研究都不能独立于社会监督。
对策建议
要发展负责任的人工智能,中国政府应发挥更多的引导作用,在多个方面形成人工智能伦理治理机制,必须系统构建人工智能伦理治理体系。
构建人工智能伦理治理体系
构建以国家人工智能伦理治理委员会为核心的层次分明、规范有序、协调一致、公开透明的人工智能伦理治理体系。
组建国家人工智能伦理治理委员会;在国家新一代人工智能创新发展试验区建立区域性人工智能伦理治理委员会;国家及试验区所在地方政府设立人工智能伦理治理监督机构。
健全人工智能伦理治理政策法规
建立健全科技伦理治理政策法规,引导和规范人工智能技术的研发与应用:加强伦理规范制定;将科技伦理原则融入科技政策;逐步推进人工智能立法,在智能机器人、智能设备、智能运载产品等应用广泛的领域,率先启动立法工作。
完善人工智能伦理自律机制
政府主管部门与企业、学术团体等共同研究制定人工智能的伦理准则,鼓励和支持通过行业自律,推动伦理审查、自律组织建立、行业标准制定等的发展。
支持高校、科研院所、大型科技企业等建立内部伦理审查机制,强化科技伦理管理主体责任。提高各学术团体的监督意识,在高等学校开设科技伦理课程。
发挥政府的引导、监管、评价等作用,对企业开发应用人工智能产品与服务的风险与安全进行规范。鼓励企业设立伦理委员会,加强对人工智能科研人员的伦理责任意识培养。
在项目选题时要对技术伦理风险进行评估;在研发过程中要关注该项目的社会影响;在项目完成交付使用前,应当对该研究成果开展广泛论证和充分评估。
建立人工智能伦理多方协商机制
由政府主管部门牵头,组织跨学科领域的专家、企业代表、用户和社会公众等利益相关者,建立多主体共同参与的协商机制,对科技伦理进行研讨并达成共识。
一是参与伦理研究和顶层设计,明确行业伦理原则,兼顾行业创新发展。
二是建立健全国家科技计划伦理管理制度,对于即将立项的科技计划项目进行深入探讨,各利益相关者通过公共协商来塑造科技创新的路径和方向。
三是对于前沿、复杂技术可能引发的伦理问题,围绕判定科研项目能否开展的标准问题,推动社会多方进行协商、交流、合作。
参与全球人工智能伦理治理
主动参与国际人工智能伦理议题的讨论,在战略层面加以布局,树立中国人工智能技术伦理规范健康发展的国际形象。
在科技安全风险管控、治理等重大国际共性问题上要积极发声,提出中国方案,加强国际交流,凝聚全球共识。
同时,要积极参与全球人工智能伦理标准和规则的制定,推动建立全球共同的人工智能开发与应用的伦理框架。
本文作者:杨博文,伊彤,江光华
作者简介:杨博文,北京科学学研究中心助理研究员,研究方向为科技政策与科技管理;伊彤,北京科学学研究中心主任、研究员,研究方向为科技创新战略、科技政策;江光华,北京科学学研究中心副研究员,研究方向为文化与科技融合。
专访中信所党委书记赵志耘:国际科技创新中心建设要注重战略科技力量的培育