专题策划 | 人工智能治理的合伦理化举措要点与反思
栾群
博士
中国电子信息产业发展研究院政策法规所所长
工业和信息化法律服务中心主任
文|栾群
编辑|李佳琪
法律讨论出现早
治理目的更理性
合伦理化举措要点
数据伦理
算法伦理
算法歧视、精准推送、电商平台“杀熟”等不良现象,可能很多人都曾经历过。2015年,谷歌曾将黑人程序员上传的自拍照打上“大猩猩”的标签;2016年,微软的聊天机器人Tay在很短时间内被“教坏”,算法让它学会了很多脏话甚至种族歧视思想;2017年,Facebook的聊天机器人Alice和Bob,发明了人类看不懂的“秘密语言”(据说是工程师失误);2018年,宁波交警人工智能系统误将公交车身上董明珠的人像“识别”成她闯了红灯等等。如果算法存在偏见或歧视,则结果必然是不公平的。如果人工智能系统采用的数据集是片面的,则算法结果会加剧某类群体的弱势地位。而人工智能系统开发过程中的公平性保证,可以通过设立监督程序,明确算法处理的目的和决策条件。
安全伦理
发展与安全是硬币的一体两面,笔者认为至少在工作层面上,“鼓励创新(发展)、包容审慎(安全)”,是现阶段人工智能发展最大的共识。达成这一共识意义重大,这也是中国人工智能产业飞速发展的认识论上的重要原因。就像是汽车的最高时速是由刹车能力决定,而不是由发动机性能决定的一样,人工智能应用的广度和深度不是由人工智能技术创新决定,而是由安全性决定。2019年2月,欧洲政策研究中心(CEPS)发布了《人工智能的伦理、治理和政策挑战(Artificial Intelligence: Ethics, governance and policy challenges)》,提出目前所称的人工智能与一般的人类智力和意识无关,没有任何迹象表明人工智能将发展出类似人类的感知和意识。
人工智能现在主要是作为对以前的分层信息系统的补充,为原有堆栈的应用程序层和服务层增加更多的“智能”(或自动化)。人工智能为社会发展创造机遇的同时,也会造成有意和无意的损害。人工智能作为通用技术,会破坏既有的社会关系、市场和商业模式;同时增强了人类的权能;也会加剧现有偏见并产生新的偏见,造成安全风险;而无监督的深度学习和神经网络虽未开发自己的智能,但为使用人工智能注入了随机性和不确定性因素。即根据此报告,目前阶段的人工智能安全尚未超出计算机和自动化的范畴,工业安全的法律和伦理规范是继续适用的。可能略显悲观,但笔者赞同这种阶段性判断。
法律责任
人工智能治理的成效,最终要体现在法律责任上。习近平总书记明确要求,“要加强人工智能发展的潜在风险研判和防范”,“要确保人工智能安全、可靠、可控”。根据《新一代人工智能发展规划》和《促进新一代人工智能产业发展三年行动计划(2018-2020年)》,到2020年部分领域的人工智能伦理规范和政策法规初步建立;到2025年初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;到2030年建成更加完善的人工智能法律法规体系。腾讯曾提出人工智能应当“可知”“可控”“可用”“可靠”,而这一切都要建立在责任可追究上面;《中国青年科学家2019人工智能创新治理上海宣言》强调,人工智能发展需要遵循伦理责任(隐私保护、多样公平、道德规范)、安全责任(技术稳健、算法透明)、法律责任(法治问责、人类作用)和社会责任(环境友好、应用益民)四大责任。问责的条件是可监管、可追溯、可审计,以及透明、可解释的选择决策说明性。虽然人工智能的应用是为了减少人力参与劳动和决策,但必须保证人类时时刻刻干预。
合伦理治理的思考
符合本国国情
符合国情,从实际出发,是改革开放40年、新中国建设70年取得伟大成就的真切经验。同样,也是未来进行人工智能治理理所应当的基本遵循。国家相关部门之所以连续不断出台政策,一方面是由于各自职责分工不同,在对待人工智能发展上各有侧重,但另一方面也有实际情况不断变化的原因。如2015年“互联网+”指导意见,2016年国家创新驱动发展战略、“十三五”规划纲要、科技创新规划与《机器人产业发展规划(2016-2020年)》《“互联网+”人工智能三年行动实施方案》,2017年国务院人工智能规划和工信部行动计划等。每一部国家文件的出台,都对应着相关领域新情况的变化与形势要求。我们应当排除并抵御外部干扰,加强战略定力,坚定“四个自信”“一张蓝图绘到底”。
符合产业需求
治理和规范的目的最终是发展,中国经历近代史巨大苦难最大的收获是认识到“发展是硬道理”“发展是第一要务”。人工智能行业发展,还是应当更多倾听企业、行业的声音,优化治理方式并探索新模式,鼓励和提倡行业自治。2016年微软、IBM、谷歌、亚马逊、Facebook等建立了“人工智能伙伴关系”组织,人工智能产业创新联盟等行业发展的自治组织,自己就提出了合伦理和合法治理的方案,微软自己提出过人工智能10条伦理原则,百度提出了安全可控、平等获取技术、促进成长和自由等4条伦理原则,腾讯提出了人工智能应当秉承“科技向善”理念等,这都是很好的尝试。但应当再次提醒的是,由于市场带有自身不可克服的盲目性,行业自治必须有必要的风险评估等规制机制。
符合民众利益
不忘初心,服务民众,应该也是人工智能治理的主题。科技的发展应当让每一个人享受科技的乐趣,应当惠及更多人,特别是应当惠及更多普通民众,而不应该成为少数人攫取更多利益的手段和工具。人工智能是一把“双刃剑”,如果是被拿去做歧视性算法,甚至被拿去做诈骗或违法勾当,则就完全背离了科技创新的初衷。人工智能治理应当秉持“科技向善、产业为民、责任相随”的原则,在普法中加入公民科技伦理道德观宣传教育的内容,同时关注人工智能产业绿色发展之路,避免高端领域的产业化再步“用环境换发展”的旧发展道路后尘,真正做到人民利益至上。
符合人类安全
人工智能带来的挑战是全人类性的,它极有可能“进化”出一个新物种,进而影响到每一个人。不论人对机器的看法如何,可以预见到的未来将是人机长期共存状态。2018年国际电联《人工智能造福全球》报告,提出利用人工智能推动实现联合国可持续发展目标,但也指出数字鸿沟、信息贫困、算法歧视等方面,亟待通过加强人工智能治理得以弥补。人工智能技术和产业从产生之初,就超越了民族、国家和地区,我们应当谋划全球化治理。可借鉴颇有成效的核军控、监控化学品、全球气候变化等重大事项的全球化治理机制,在联合国框架内共同探索新的治理方式。利用好上海、重庆、天津等地的世界人工智能大会、世界智能大会、国际智能产业博览会等平台,积极提供中国智慧和方案,以人类命运共同体的道德责任感推进全球共同发展,保障人类整体安全。
本文刊登于《科技与金融》杂志2019年10月刊。
欢迎微信分享,如需转载请与编辑部联系。
(月刊订购方式可点击文末【阅读原文】进行了解)