中国信通院王亦菲等:数字经济时代人工智能伦理风险及治理体系研究
The following article is from 信息通信技术与政策 Author 王亦菲,韩凯峰
人工智能作为新一轮科技革命和产业变革的重要驱动性技术,正在重塑生产方式、优化产业结构、提升生产效率、赋能千行百业,推动经济社会各领域从数字化、网络化向智能化加速跃升。但人工智能在为人类生产生活带来诸多便利的同时,也在触发如泄露个人隐私、冲击就业格局、危害公共安全等风险问题,给社会治理带来全新挑战。因此,人工智能治理这一概念应运而生,推动构建全球人工智能治理体系正在成为各方共同诉求。
1 人工智能带来数字治理新挑战
1.1 人工智能引发经济社会多方面挑战当前,以深度学习、跨界融合、人机协同、群智开放、自主操控为特征的新一代人工智能技术持续创新突破,在促进科技创新、培育新兴产业、改造升级传统产业、加快实体经济转型等方面的作用日益凸显[1]。但“每个硬币都有正反面”,人工智能技术在迅速赋能经济社会发展的同时,也引发安全、社会、法治等不同层面的风险挑战[2]。究其根本原因,在于人工智能所产生的技术异化导致治理盲区出现、算法歧视产生、责任主体模糊等治理困境[3]。
一是引发安全风险,技术不可控等导致侵犯隐私、数据滥用等事件发生。人工智能技术极易被滥用,导致虚假信息频发、不良信息泛滥,加大数字内容治理难度。例如,某些应用软件利用深度伪造技术能够实现图像、音视频的生成或修改(如AI换脸),达到不良信息内容的“以假乱真”,甚至抹黑政治人物,严重影响网络空间秩序。另一方面,利用人工智能技术在数据收集与分析时可能会挖掘出用户个人敏感信息并加以利用,导致用户隐私泄露。例如,某些售楼部在未告知消费者的前提下,利用人脸识别技术对消费者进行比对以防止“飞单”,严重侵害消费者权益。
二是引发社会风险,就业替代性等导致贫富差距加大、社会不公平性加深。有观点认为,人工智能作为先进生产力之一,将替代简单、重复、流程化的工作岗位,导致结构性失业等问题,甚至有悲观者认为人工智能将会在人类社会中产生一批史无前例的“无用阶层”。据麦肯锡预测,到2030年机器人将取代8 亿人的工作岗位。同时,由于人工智能将影响不同行业企业、不同岗位的分配关系,使社会财富聚集在少数技术领先的行业企业,导致收入分配不均衡,使技术能力以及受教育程度较低的人群将在新一轮的社会资源分配中处于劣势地位。
三是引发法治风险,技术自主性等导致责任主体不明、冲击现有法律体系。由于当前的人工智能技术具备一定程度的自主学习与决策能力,并且其某些行为存在不可解释性,同时现行法律法规尚未明确界定人工智能的设计、制造、消费、使用等环节的各方主体责任与义务,导致法律责任认定和划分难度大增。例如,当自动驾驶汽车出现决策错误导致人员伤亡时、当智能医疗助理给出错误的医疗建议导致患者病情加重时,如何界定主体责任等核心问题尚未解决。
1.2 多重因素增加人工智能治理难度数据治理[4]、内容治理等具有治理主客体明确、治理范围清晰等特点,人工智能由于其算法的不透明、难解释以及技术的跨界传播性、外溢性强,导致其比一般的数字治理范围更广、难度更大[5]。
从内部因素看,算法黑箱性、数据依赖性等导致人工智能决策过程难预测、决策结果难控制。一方面,人工智能算法的决策依赖于海量的数据输入,但数据本质上是社会价值观的缩影与映射,极易包含一些社会偏见。若未能对数据质量进行有效把控,人工智能算法模型便很可能习得数据中的偏见谬误,并将其反映到训练结果中。另一方面,当前深度学习、强化学习等算法模型就像一个“黑箱”,输入数据和输出结果之间存在着人们难以洞悉解释的“隐层”,使用户甚至开发者都难以明晰其因果关系。智能算法的不透明、自适应、自学习等特性,导致其极易偏离人类预设的行为目标。
从外部因素看,传统治理结构的不适应、治理方法的难起效、治理范围的局限性等难以满足人工智能治理需求[6]。人工智能的发展创新对技术治理的专业化、智能化等水平都提出了全新要求,因此传统的技术治理方式方法将很难适用于人工智能治理。由于人工智能具备一定的自主学习及决策能力,其行为结果不能完全归因于背后的程序开发者或者数据提供者,这将导致责任主体的判定模糊。此外,人工智能的应用普及将引发结构性失业、数字鸿沟加剧、社会不公平现象增多等全新社会问题。传统治理尚未覆盖以上问题领域,需要构建全新的技术及社会治理体系。
2 全球各国加快推动人工智能治理进程
2.1 人工智能国际治理体系正在加速构建当前全球人工智能治理还处于初期探索阶段,正从伦理原则、倡议共识向可信评估、操作指南、政策法规等落地实践逐步深入,加快构建人工智能国际治理框架体系。
美国、欧盟、英国、日本等主要国家及地区已经将伦理治理等纳入人工智能战略中,强调推动人工智能安全、健康发展。美国将人工智能治理作为《国家人工智能研究和发展战略计划》八大战略之一;欧盟致力于引领全球人工智能治理,在其发布的《可信人工智能伦理指南》《欧盟人工智能白皮书》等战略文件中均强调构建“可信人工智能生态系统”的重要性;英国在其《产业战略:建设适应未来的英国》中,强调要在数据及人工智能安全方面保持领先;日本内阁于2018年年底发布《以人类为中心的人工智能社会原则》,强调将重视人工智能带来的负面社会影响,积极构建能够使人工智能有效且安全应用的“AI-Ready社会”。
G20、ITU、OECD、ISO、IEEE等国际组织机构正积极推动人工智能伦理原则、倡议、标准制定。2019年,G20通过《G20人工智能的原则》,倡导以人类为中心、以负责任的态度开发人工智能;OECD发布《负责任地管理可信任的人工智能原则》,提出人工智能应遵循的5项伦理原则;联合国教科文组织于2019年发布《人工智能伦理问题初步研究》报告,针对人工智能可能引发的社会问题提出了若干建议;ISO/IEC、IEEE等标准化组织机构正在制定人工智能技术及产品相关标准。
产业界、学术界等积极探索实践人工智能技术治理路径。谷歌、微软、百度、旷视、腾讯等科技企业纷纷成立人工智能治理专门机构,通过发布伦理原则、制定内部规范、研发技术工具等举措,形成有效解决相关具体问题的治理体系;英国阿兰图灵研究所于2019年发布《理解人工智能伦理及安全》报告,提出构建负责任人工智能系统的可行性方案;2020年6月,清华大学成立人工智能国际治理研究院,面向人工智能国际治理重大理论问题及政策需求展开研究,努力构建公正、合理的人工智能国际治理体系。
2.2 全球主要国家人工智能治理重点各异2.2.1 美国高度重视人工智能对民众就业以及国家安全的影响2018年,美国发布《人工智能就业法案》,该法案提出应营造终身学习和技能培训环境,以应对人工智能对就业带来的挑战。与此同时,美国高度重视人工智能伦理对国家安全的影响,设立人工智能国家安全委员会,委员会将考察人工智能技术在军事应用中的风险问题,以及在国家安全和国防领域的伦理道德问题,并制定公开训练数据标准和推动公开训练数据共享等。
2.2.2 欧盟将维护人工智能伦理价值观上升至欧洲整体战略层面欧盟高度重视建立人工智能伦理道德和法律框架,以确保人工智能技术朝着有益于个人和社会的方向发展。2019年4月,欧盟发布《人工智能伦理准则》,提出建设以人为本的人工智能,列出了可信赖的人工智能系统应满足的7个关键要求[7]。为加强对人工智能发展的监管力度,欧盟委员会于2020年2月19日发布《欧盟人工智能白皮书》,其中提出将针对可信赖人工智能建立新的监管框架,建立涵盖事前、事中、事后各个环节的全面监管机制,在确保各种风险和潜在损害最小化的同时,避免过度监管对产业创新发展的阻碍。
2.2.3 法国通过专家研讨、学术辩论等方式深化对AI伦理问题的认识法国国家信息技术和自由委员会在2017年举行了涉及3000人的45次AI学术辩论活动,并于2017年12月推出主题为《人类如何保持优势——算法和人工智能引发的道德问题》的报告,强调了“将人工智能应用于人类服务”的两个基本原则,即“忠诚原则”(意味着算法和AI系统应该忠实于用户)和“持续关注和警惕的原则”(意味着参与算法链的所有利益相关者需要处于对可能无法预料的后果的警惕状态)。
2.2.4 德国、韩国等高度重视自动驾驶政策法规制定2017年8月,德国联邦交通与数字基础设施部推出全球首套《自动驾驶伦理准则》,规定了自动驾驶汽车的行为方式。韩国国土交通部于2020年12月发布《自动驾驶车辆安全运行准则》,包括伦理准则、网络安全准则、生产与安全准则三大部分。其中,伦理准则以确保生命安全为核心,要求自动驾驶车辆在设计和生产时遵循“生命重于财产”“无法避免事故时应尽量减轻人员伤亡”等原则。
2.3 我国稳步推进人工智能治理进程我国高度重视人工智能规范有序发展,近年来在各方共同努力下,我国人工智能治理稳步推进,发展环境持续优化。一方面,提出明确的人工智能治理目标。在国务院发布的《新一代人工智能发展规划》中,明确提出人工智能治理“三步走”战略目标,为我国系统构建人工智能治理体系提供了方向指引;2019年6月,发布《新一代人工智能治理原则》,提出八项治理原则以发展负责可信的人工智能。另一方面,积极探索人工智能治理实践方案的落地。2019年8月,中国人工智能产业发展联盟发布《人工智能行业自律公约》,旨在引导和规范行业从业者行为;积极推进在ITU、ISO/IEC等框架下的国际标准制定工作以及国内行业标准立项制定;陆续启动数据、平台以及车联网、智能医疗、个人信息保护等人工智能相关规范立法工作,如2020年7月,全国人大常委会第二十次会议审议了《数据安全法(草案)》并公开征求意见。
3 构建持续发展的人工智能治理体系
人工智能治理是一项复杂的系统性工程,既需要秉持科技造福人类、安全与发展兼顾的治理目标,平衡好创新发展与有效治理的关系,还需要提出切实有效的治理举措,根据实际需求及反馈动态调整、持续优化治理路径及策略。
3.1 打造政府、市场、公众等多方参与、协同共治的治理模式人工智能治理的重要特征之一是治理主体的多元化、治理手段的多样化,其依赖于包括政府、企业等在内的多利益攸关方的参与合作,各司其职、各尽其能,以适当的角色、最佳的手段协同共治[8]。国家政府在治理中发挥着领导性作用,通过设置专门机构、发布战略政策、制定法律法规等来执行落实治理规则;行业组织是治理的重要推动者,通过制定技术标准、颁布行业准则等方式推动人工智能规范发展;高校及研究机构致力于推进人工智能治理及伦理研究,为社会提供基础性、公益性服务;科技企业及开发者是践行行业自律自治的中坚力量,通过制定企业伦理原则、研发技术工具等,有力推动治理的落地实践;公众(包括独立学者)是治理过程中的重要参与者,拥有对其监督、意见反馈等权利。
3.2 综合运用伦理引导、技术应对、规范立法等治理手段人工智能治理应建立在对人工智能的价值观思考的基础上,通过制定伦理原则、设计技术标准、开发技术工具、确立法律法规等手段举措,从而有效应对人工智能所带来的风险挑战[9]。
一是强化伦理引导。相对于立法的反应滞后性,伦理引导与约束可以先行预设,能够较为及时地反映出变化的社会关系,如牛津大学、清华大学等高校学者从学术视角讨论AI伦理及治理问题。
二是设计标准规范。人工智能技术及行业标准体系建设工作对人工智能产业发展具有基础性、支撑性、引领性作用,是推动产业创新发展的关键抓手,目前欧盟、美国、日本等国家和地区均高度重视大力推进人工智能标准化进程。
三是研发技术工具。智能化数字技术本身也作为一项精准、高效的技术治理工具,正在被尝试用来解决人工智能所带来的风险问题。科技巨头企业正在积极开发运用数据筛选、算法设计、模型优化等技术工具,着力解决诸如隐私泄露、算法偏见、非法内容审核等治理问题。例如,华为利用“差分隐私”“数据过滤”等技术,应用于算法训练等数据使用过程,确保AI应用的安全可控。
四是制定法律法规。人工智能所带来的责任归属界定、隐私泄露等问题不断挑战现行法律法规底线,需要考虑采取包容审慎、灵活弹性的应对方式,既要避免草率立法阻碍人工智能创新发展,也要适时制定适应技术发展的法律法规。
3.3 构建覆盖全面、反馈及时的治理效果评价机制针对人工智能技术更迭快、创新发展迅速的特点,治理手段及治理体系机制等也需要对新趋势、新问题进行及时响应、动态优化、持续完善,实现更为敏捷的治理。为此,可适当引入治理效果评价及反馈等机制,以准确掌握最新治理情况、及时发现问题,以制定更有效的应对策略。例如,对于伦理原则,可评估其可操作性、社会接受度等;对于技术工具,可对其安全性、成熟度、稳健性、有效性等进行评价;对于技术标准规范,可评价其全面性、合理性等;对于法律法规,可评价其社会满意度、是否监督问责等。
4 持续完善我国人工智能治理体系
面向未来,我国应准确把握新一代人工智能发展特点规律,加强伦理及治理体系理论研究,探索构建符合中国国情的人工智能治理框架,营造健康可持续的产业发展环境[10]。
4.1 加大政策支撑力度,持续优化治理环境一方面,推动自动驾驶、智能医疗、生物信息识别、智能制造等人工智能重点领域规则制定,加快完善数据相关立法工作[11],加强对智能算法以及新型智能产品服务的风险监测[12]构建结构合理的人工智能责任划分体系,探索有效可行的人工智能监管路径;另一方面,建立和畅通人工智能产品的投诉举报等监督机制,鼓励第三方机构依托标准开展评测,形成标准制定、产业宣贯、测试评估的联动推进策略,开展面向公众的人工智能公共伦理教育。
4.2 深化治理规则研究,提升治理能力一是加大对通用人工智能阶段人机共生社会关系等前瞻性伦理问题研究的投入,加强人工智能基础理论、可解释算法、可信人工智能评估测试等技术研究,打造具备一定国际影响力的治理专业组织机构;二是依托企业、高校、产业联盟等机构,推动人工智能伦理及行业自律原则的实施落地;三是持续完善人工智能标准体系,进一步提升算法治理、数据治理、平台治理等数字治理能力,持续完善适宜人工智能发展的法律法规环境。
4.3 深化国际交流合作,参与全球治理议题一是积极参与全球人工智能治理交流对话,推动国际标准化组织讨论和制定全球人工智能伦理规则及标准,鼓励国内外企业及相关机构加强AI国际标准化合作,持续提升算法规则、数据使用、安全保障等方面的治理能力;二是在人工智能领域建设包容性强的国际治理交流平台,与全球各国共同研究、讨论、采纳各方面好的意见建议,形成国际治理规范共识;三是在G20、ITU等多边合作机制下,分享治理经验与实践,共同探索合乎人类发展需要的人工智能治理模式。
5 结束语
未来,人工智能将会渗透到人类社会的方方面面,并带来巨大的社会效益,但随之衍生的伦理风险也不可忽视。因此,妥善应对人工智能带来的安全威胁、隐私泄露、算法歧视等问题,推动构建系统完善、适宜我国国情的人工智能治理体系,消除人们对人工智能未来发展的担忧,为人工智能营造规范、有序、可持续的发展环境。
参考文献
[1] 詹远志, 高宁广. 释放人工智能潜力 加快经济社会智能化转型[N]. 人民邮电, 2020-11-13(007).
[2] 伦一. 人工智能治理相关问题初探[J]. 信息通信技术与政策, 2018(6):5-9.
[3] 陈思. 算法治理:智能社会技术异化的风险及应对[J]. 湖北大学学报(哲学社会科学版), 2020,47(1):158-165.
[4] 李雨霏. 人工智能在数据治理中的应用[J]. 信息通信技术与政策, 2019(5):23-27.
[5] 蒋洁. 风险视域下人工智能伦理的主旨和原则[J]. 信息通信技术与政策, 2019(6):13-16.
[6] 杨婕. 推动完善我国新一代人工智能伦理治理体系[J]. 信息安全与通信保密, 2020(1):93-101.
[7] 陈小平. 人工智能伦理体系:基础架构与关键问题[J]. 智能系统学报, 2019,14(4):605-610.
[8] 谭九生, 杨建武. 人工智能技术的伦理风险及其协同治理[J]. 中国行政管理, 2019(10):44-50.
[9] 石霖, 曹峰. 人工智能发展带来的安全问题与策略研究[J]. 电信网技术, 2018(4):15-17.
[10] 韩凯峰, 詹远志. 推动构建人工智能治理体系 持续优化人工智能政策环境[N]. 人民邮电, 2020-08-21(007).
[11] 蒋洁. 培育发展数据要素市场的疑难问题与法律应对[J]. 图书与情报, 2020(3):22-24.
[12] 张吉豫. 智能社会法律的算法实施及其规制的法理基础——以著作权领域在线内容分享平台的自动侵权检测为例[J]. 法制与社会发展, 2019,25(6):81-98.
作者简介
王亦菲
中国信息通信研究院政策与经济研究所战略研究部助理工程师,主要从事人工智能国际战略、政策法规等研究工作。
韩凯峰
中国信息通信研究院政策与经济研究所战略研究部工程师,博士,通信作者。主要研究方向为无线通信(5G/6G)、边缘计算、车联网、人工智能等前沿技术及战略。
论文引用格式
王亦菲, 韩凯峰. 数字经济时代人工智能伦理风险及治理体系研究[J]. 信息通信技术与政策, 2021,47(2): 32-36.
本文刊于《信息通信技术与政策》2021年 第2期
主办:中国信息通信研究院
《信息通信技术与政策》是工业和信息化部主管、中国信息通信研究院主办的专业学术期刊。本刊定位于“信息通信技术前沿的风向标,信息社会政策探究的思想库”,聚焦信息通信领域技术趋势、公共政策、国家/产业/企业战略,发布前沿研究成果、焦点问题分析、热点政策解读等,推动5G、工业互联网、数字经济、人工智能、区块链、大数据、云计算等技术产业的创新与发展,引导国家技术战略选择与产业政策制定,搭建产、学、研、用的高端学术交流平台。
《信息通信技术与政策》官网开通啦!
http://ictp.caict.ac.cn/
(点击“阅读原文”访问)
校 审 | 陈 力、珊 珊
编 辑 | 凌 霄
推荐阅读
《新基建》专辑