李麒|人工智能伦理规范的初步探讨
北京理工大学珠海学院民商法学院教授
要目
一、前言二、伦理规范的理论基础三、人工智能的伦理规范四、建立伦理监督委员会结论与建议2019年5月25日北京智源人工智能研究院联合北京大学、清华大学、中国科学院自动化研究所、中国科学院计算技术研究所等单位,共同发布《人工智能北京共识》,提出人工智能的研发、使用、治理应该遵循有益于人类命运共同体建构和社会发展的15条原则。
一、前言
人工智能研发应符合伦理的设计方法,尽可能公正,减少系统歧视与偏见,提高系统透明性,增加系统可解释度、可预测性,使系统可追溯、可核查、可问责等。2019年7月,中国国家新一代人工智能管理委员会发布《新一代人工智能管理原则》,提出尊重人的隐私、尊严、自治和重视权利,不应使用人工智能伤害人类。另一方面,人工智能的伦理价值在美国也有广泛的讨论,大型科技公司提出人工智能伙伴关系等概念。2017年谷歌公司放弃与美国国防部续约,原因是美国国防部要求该公司将先进的人工智能技术应用于军事用途。1983年成立的计算机专业人员社会责任组织(Computer Professional for Social Responsibility,CPSR)及联合国人权观察组织都主张禁止全自动武器的条约,例如自主选择轰炸目标的无人机等。人工智能伦理问题向来受到各界广泛关注,包括联合国发布的《关于机器人伦理的研究报告》、国际标准化组织IEEE发布的《合理伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》;由Hawking、Elon Musk等人推动的人工智能23条准则(或称阿西洛马人工智能原则);英国剑桥的存在风险研究中心(CSER)、牛津的人类未来研究所(FHI)、美国波士顿的未来生命研究院(Future of Life Institute)。美国麻省理工学院媒体实验室(MIT Media Lab)与哈佛大学伯克曼·克莱因互联网与社会研究中心(Berkman Klein Center for Internet&Society)合作推出的耗资2700万美元的AI伦理研究计划;加拿大蒙特利尔大学人工智能伦理小组发布的《负责地发展人工智能的蒙特利尔宣言》;等等。现代社会技术和法律时常处于紧张状态,虽然技术促进新的发明,但法律则趋向保守,基于社会道德或人类恐惧而禁止克隆就是一个例证。有人认为超级智能的发展,会因其优越性而超越人类,进而夺取道德评价的话语权,使人类失去道德尊严的主动权。这虽是对新兴科技发展的普遍忧虑,但法律不应成为科技创新的阻碍,因此2017年7月8日国务院制定《新一代人工智能发展规划》,提出制定促进人工智能发展的法律法规和伦理规范。工信部出台《促进新一代人工智能产业发展三年行动计划(2018—2020)》,教育部出台《高等学校人工智能创新行动计划》,中央全面深化改革委员会第七次会议审议通过《关于促进人工智能和实体经济深度融合的指导意见》。2020年7月27日,国家标准化管理委员会、中央网信办、国家发改委、科技部、工业和信息化部等五部委印发《国家新一代人工智能标准体系建设指南》,要求到2021年,明确人工智能标准化顶层设计,完成安全、伦理等重点标准的预研工作,2023年初步建立人工智能标准体系。上述文件均显示人工智能伦理发展受到高度重视。
以自动驾驶车辆的伦理规范设定为例,若以符合全体社会成员最大利益为原则,则会采取强制的伦理设定(mandatory ethics setting,简称MES),而排除让每一个司机或乘客都选择个人化的伦理设定(personal ethics setting,简称PES),由于自动车驾驶涉及公共利益,片面尊重工具使用者的自主权,基于人类自利的本质,很可能导致公共安全与道德的双重危险,基于社会共同体的责任与价值利益考虑,强制伦理设定是比较妥适的作法。但是在具体设定算法时,如何避免算法偏见和歧视?若以功利主义为算法基础,为了拯救多数人,仅载有一名乘客的车辆有很大几率会成为事故撞击的目标;若采取最小化伤害原则的道德算法,德国制的自动驾驶车辆是否可能选择日本车为撞击对象,因为一般而言,日本车的防护钢板较薄弱,如何决定类似的伦理规范显然值得讨论。
二、伦理规范的理论基础
2018年世界人工智能大会发布的“上海倡议”提出建立与人工智能创新发展相适应的立法规范、法律体系、政策体系和伦理体系,制定技术设定阶段的法律规范,通过规则设定促进人工智能算法的公正、透明、安全,避免算法歧视,2019年中国国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则—发展负责任的人工智能》特别强调此理念。人工智能的伦理规范非常重要,主要包括为智能机器人预设道德准则、设定人工智能技术研发及应用标准,建立人工智能产品本身的道德指引,以及规制科研人员的伦理规范。科学技术要解决的是“能不能”的实然问题,伦理学要解决的是“该不该”的应然问题,人工智能不仅是单纯的技术问题,也是哲学问题。以下提出几种典型案例 的思考方式,部分案例来自1985年美国教授JJ.Thomson提出的电车难题(The Trolley Problem):
案例1:电车难题
假设某辆电车沿着既定路线前行,电车突然发生故障而无法操控,如果电车继续前行会碾毙在既定路线上工作的五位作业员,此时刚好有一位作业员A站立于轨道分转器旁边,目击了现场状况,A如果使用轨道分转器切换路线,可以让电车转入另一条轨道而拯救五位作业员的性命,然而在切换后的轨道上有一位作业员B正在工作,轨道切换后电车会将B碾毙,试问A是否应该作出转换轨道的决定。不选择转换轨道将导致五位作业员死亡,选择转换轨道会导致作业员B死亡,A如果选择后者,法律上是否可以主张紧急避险。
案例2:陆桥上的胖子
突然失去控制的电车持续前行,如果继续前行会碾毙在既定路线上工作的五位作业员,A与完全不知情的C正好走在陆桥上,C体型非常肥胖,如果A突然将C推落桥下,以C作为障碍物则刚好可以让电车停止(题目设定为牺牲C一定会使电车停止),因而救助五位作业员的性命。A是否应该推C下桥?
案例3:自动驾驶车辆的情况
在深不可测的溪谷上有一条非常狭窄细长的陆桥(只能单线双向通行),A搭乘自动驾驶车辆(A并未操作车辆)正在桥上行进,对向开来一辆大巴士(有乘客40人),大巴司机突然失去意识导致该车越过车道线,直接冲向搭乘A的自动驾驶车辆,此时如果A的车辆加速前进稍微擦撞大巴车的侧边,可以保护A的安全,但是大巴车会掉落山谷,车上40人均会死亡;如果A的车辆不加速,直接与大巴士正面相撞,则A死亡,大巴士不会掉落山谷,车上乘客均会获救,A所搭乘的自动驾驶车辆应该加速,还是不应该加速?
案例4:社会评价体系下的自动驾驶车辆
甲为大学教授,具有名校毕业的博士学位,认真工作,乐善好施、义务担任社会服务工作,服务人群曾受政府表扬,人工智能系统赋予的社会评价分数为95分;乙未接受良好教育,无业而四处游荡,曾因盗窃罪在监狱服刑,人工智能系统给予的社会评价分数是20分,某日乙不遵守十字路口交通标志,违规闯红灯穿越马路,甲所搭乘的自动驾驶汽车正准备通过该路口,此时因不明原因汽车刹车失灵,汽车正迅速向乙接近,人工智能系统立即作出判断,无论直接撞击乙或右转撞击路树都可以使车停下来,此时人工智能作出何种选择会符合正义的要求?
伦理规范是划定个人行为与社会组织界限的一种方法,西方社会有两种主要的道德理论,一是边沁的功利主义理论,利益最大化作为道德标准,在以效用主义为基础的博弈论在人工智能中经常被用于理解个体与群体的相互作用,为算法的伦理分析提供基础。二是康德的义务道德论,道德动机是人类行为的准则,理性且具有自由意志的人是道德主体,能作出最终决策,人本身就是目的,任何人都不能将他人作为工具,或达成特定目的的方法或手段。问题在于此种绝对律令的观点,如何转换为人工智能的正确规则。温德尔·瓦拉赫、科林·艾伦认为机器人可以根据人类的普遍道德法则作出是非判断,具有理性能力。康德认为自主性是人类自我意识的根本条件,如果机器人可以超越人类控制,这种自主技术性的概念会令人感到不安,因为赋予人工智能自主性,代表人的自主性被替代,主客体的地位将发生变化。可能的解决方法是在人工智能设计之始,将一些伦理规则作为绝对律令,以代码的方式写入人工智能的程序中,例如机器绝对不能攻击人类,特别是老弱妇孺,植入规范性伦理程序就是康德道德律令的代表。
人工智能道德伦理的责任议题,包括人权伦理、责任伦理、道德地位伦理、代际理论、环境理论以及大数据伦理与隐私,以联合国宣言为基础,有人认为应将人类责任与机器人责任伦理的标准同等对待,主要包括正义与团结、相互尊重与合作、信任与容忍、基本人性准则等。建立在亚里士多德道德观念上的人工智能道德理念,是自下而上的理论体系,机器可以自主学习,而具有类似神经网络链接机制的机器人就有可能具备道德判断能力。
如果采取边沁的功利主义,应当追求“最大多数人的最大幸福”,案例1及案例2都会作出拯救5人的生命利益大于牺牲1人的生命利益的决定。案例3自动驾驶车辆不加速与大巴士直接相撞,才能拯救车上40位乘客的生命,A的生存机会势必被选择放弃,人工智能设计师必须预先设定“牺牲自驾车乘客”的程序模式,在这种情况下,是否还有人选择使用自动驾驶车辆?如果采取康德的道义责任论,无论在任何情况下,人的生命都不可以因为特定目的而被利用,则案例1及案例2都会作出不救助5个作业员的决定,因为生命的价值没有数量或高低的区别。在案例3的情况由于生命价值相等,自动车加速与否都会造成生命损失,程序设计师是否应该优先考虑使用者的安全,保护使用者(消费者)安全是否为产品制造或设计者的法律义务?
其次,针对案例4,若采取功利主义,AI的设计者应该会选择让汽车直接撞击乙,因为甲的社会评价分数90分远高于乙的20分;如果采取康德的道义责任论,人始终是目的,而不能成为达成特定目的的方法或手段,所以不能把人单纯当作客体对待,由于每一个人的生命价值相同,AI的设计者应当会让汽车右转撞树而导致甲死亡或受伤。由上可知,AI对于甲、乙生死的决定取决于工程师对于算法的设计。无论AI选择直接撞击或转向都会导致对人工智能数理逻辑算法的疑虑,直接撞击会造成阶级对立,加剧社会精英与普通民众的紧张关系;转向则会使无人驾驶汽车失去用户,因为每一次驾驶都类似俄罗斯赌盘,搭乘者可能会因突发事件而被牺牲,个人没有过错却必须成为被选择牺牲的对象。
案例3及案例4的自动驾驶车辆程序设计者必须面对一项难题,应当对人工智能输入何种价值选择标准,在更复杂的情形下,例如一方车辆的乘客只有5年的余命,另一方乘客有20年的余命,哪一辆车的安全应当优先考虑(事实设定为两辆车可以自动交换乘客信息)?又如果两车乘客的余命完全相同时,一方是高额纳税人,另一方是欠税大户,自动驾驶车辆的程序参数(parameter)又应该如何设计?
另一种观点认为,根据哲学上的双重效果原则(Doctrine of double effect),行为人虽然应该对于自己意图决定所产生的损害结果负责,但即使发生损害且能预见结果的发生,若损害不是根据有害意图的行动所造成,就不应该追究行为人的责任(前提是此行为是人道的、或至少是道德中立的、或不会为自己带来直接利益)。案例1中A转动换轨器时虽然预见B的死亡,但A的意图是为了拯救5个作业员的生命,因此B的死亡只是附随发生的结果;案例2中A的直接意图是将C推落桥下,C的死亡附随产生救助5名作业员的结果,根据双重效果原则,案例1可以被正当化,但案例2则不能被正当化。
人工智能的伦理规范必须保留人类的基本价值观。一般而言,人工智能采取的是工具理性表现方式,人类行为则具有价值理性的思维,将此种价值理性转化为精确的算法设计十分困难,而且不同的文化习俗、宗教信仰、社会公德自有不同的价值判断标准,人工智能面对价值体系如何选定价值体系,其本身虽是一个难点,但是在算法中嵌入公平、正义、良善等价值观的追求应该是正确的方向。具体的方法是将人的道德理性融入算法程序,研发“道德代码”以明确人工智能的道德主体责任,道德代码指程序员除了按科学方式编码外,同时在代码中融入道德感情,使编码在执行程序时具有道德价值判断功能,亦即编码本身应具备道德功能。人工智能的道德属性源于人类自身的道德认识,这种道德属性需要专家的技术设计,所以健全程序设计者的伦理体系与道德观是根本的问题。
三、人工智能的伦理规范
欧洲议会的法务委员会(JURL Committee)于2015年1月召开关于机器人与AI进化的法律问题工作会议,同时设立专责工作小组,该委员会于2017年1月提出“关于机器人民事法规则的欧洲委员会建议”报告,认为欧洲应该设置管理机器人与伦理规则的专责机构并建立适用于欧洲全境的管理规则,长期而言,未来对于自律型的机器人可以讨论赋予电子人格的可能性。本报告提出广泛受到重视的五项伦理原则,内容包括自由、隐私、人性尊严、自己决定权等,对于机器人运用所造成的影响实施评估;人们拒绝使用人工智能,但仍会因人工智能对生活产生实质影响时,应当对于人工智能决策的各种可能性,寻求理论依据;AI的算法必须能还原为人类可以理解的型态或方式;强人工智能的逻辑程序决定程序,必须全程予以记录备案,不能存有黑箱的现象,确保“透明性原则”的落实。同时在附录部分(Annex),提出对人工智能工程师的伦理行为准则(Code of Ethical Conduct for Robotics Engineers),这个准则属于建议、指导的性质,没有强制性,对于人工智能工程师的具体行动方针包括
(1)善行(Beneficence):人工智能的行为必须符合人类利益。
(2)无害(Non-maleficence):无论在任何情况下,机器人都不能伤害人类。
(3)自主性(Autonomy):使用机器人所提供的人类信息,不能以强制方式取得,必须根据人类的自由意志作成决定。
(4)正义(Justice):特别是居家治疗,使用照护式机器人时应当给予公正的利益分配。
2017年6月德国交通部伦理委员会公布《自动和联网驾驶》报告,提出自动车驾驶的20条伦理规则,其核心内容包括保护个人优先于其他一切功利主义的考虑;当危险情况不能避免时,保护人类生命优先于其他法律利益,为了避免人员伤亡,在编程上允许对给动物或者财产造成损害;道德困境下的决策依赖于现实的具体情况,无法清楚地给予明确标准;处于无法避免事故发生的境况下,禁止以年龄、性别、生理或心理状况等人身特征进行歧视性决策,不得牺牲无关的他人。2016年4月德国政府通过法律,将“驾驶员”定义扩大到能够完全控制车辆的自动人工智能系统,同时提高无人驾驶的保险费与赔偿费。
为了避免算法歧视,我们应当有合理的AI设计,可以将人类社会的法律、道德等规范和价值嵌入AI系统,根据国际标准化组织IEEE提议,首先是规范和价值的发现,确定AI系统应当遵守哪些规范,在价值相互冲突时又应该如何抉择;其次是法律或道德规范能否转换为计算器代码写入AI系统,采取方法是自上而下地将规则写入系统,要求人工智能遵守规则,还是自下而上由机器自我学习价值与伦理规则,目前尚无定论;最后是对人工智能采取的价值和规范进行评估,从三方面加以评估,包括使用者评估、主管部门评估和行业组织评估。
日本政府于2016年5月30日设置“关于人工智能与人类社会恳谈会”,经过6次讨论,于2017年3月24日提出正式报告,该报告提出人工智能的伦理论点:(1)随着人工智能技术不断进步,人工智能技术机器与人类关系可能会逐渐产生变化,对于未来新关系所形成伦理观的内容应事先设想规划;(2)应用人工智能技术所产生的服务,在作成决策的评价标准与处理优先次序时,仍会受到人类心智或行动的控制,此类决策如果受某些特定的人类感情、情绪或信念的制约,就会令一般人产生不安全感,特别是在我们没有察觉,一切决定都受程序操控的状况下,伦理规范的讨论显得更为重要;(3)运用人工智能技术会扩展人类在时空或身体领域的范围,但是应该注意人工智能与人类能力与情感方面的相互作用,适度加以调适;(4)对于与人工智能技术有关的行为或创新价值,应给予适当评价,而这种价值观要考虑社会接受程度,尽可能的采取多元化的观点。2017年7月日本总务省情报通信研究所在《2017报告书—关于推动AI网络化国际议题的讨论》报告书中提出《AI发展纲领》,提出伦理原则的内容是“开发者应当尊重人性尊严与个人自主,在开发与人类脑部或身体相连的AI系统时,应注意有关生命伦理的争议,并予以特别慎重的考虑。开发者参照技术的特性在可能的范围内,应努力排除包含AI系统学习数据在内,所形成的一切偏见和其他不当差别对待的措施。开发者应遵守国际人权法、国际人道法,随时注意AI系统是否有不符合人类价值的行为”。
2016年5月美国奥巴马政府在白宫召开AI所带来利益风险的工作会议,会议结论,提出《对未来人工智能的准备》(Preparing for the Future of Artificial Intelligence),该报告提出面对未来人工智能的23点事项,其中也涉及AI伦理问题,所有的事项都可以提供美国联邦政府及各界参考,第16点是“联邦政府机关应当考虑如何确保人工智能的有效性与公平性”,第17点强调人工智能系统透明性的重要性。第18点要求在各级学校的重要课程中,例如人工智能、机器学习、计算器与数据科学等的科目,在安全性与隐私方面设计出与伦理规范有关的主题。第23点提及对全自动或半自动武器的相关政策要符合国际人道法的规定。报告结论认为随着人工智能的持续进步,如何确保人工智能的透明性与说明可能性显得十分重要,人工智能的理解过程与人类理性的思维间如何取得平衡也应受到重视。
(1)电器和电子工程师协会IEEE(The Institute of Electrical and Electronics Engineers)
IEEE是总部设在美国的电器工学、电子工学技术的学会,该学会是世界最大的技术者研究团体。IEEE于2016年4月通过《伦理因素的自动化系统设定的全球化倡议》(The Global Initiative for EthicalConsiderations in the Design of Autonomous Systems),认为在谋求伦理、法律和社会目标一致性的前提下,确有必要对于AI系统的设计方法予以研究,因而提出此项计划。2016年12月接着公布第1版《伦理指引—以人类福为的优先人工智能与自动系统》(Ethically Aligned Design-A Vision for Prioritizing Human Wellbeing with Artificial intelligence and autonomous System, Vision 1 for Public Discussion),〔2018年2月整理了来自全世界包含美国、欧洲、中南美洲在内的官方与民间专家约250人的意见后,公布了该指引的第2版。该版本共263页,大致分为下列主题:(1)一般原则;(2)自律智能系统价值观的 内容;(3)伦理研究和设计的导入方法;(4)一般人工智能(AGI)与超人工智能(ASI)的安全性;(5)取得与使用个人信息的限制;(6)自主兵器系统的再规制;(7)经济与人道的问题;(8)法律;(9)人工智能对人类感情与情绪的影响;(10)政策;(11)自主智能系统的古典理论;(12)信息通讯技术(ICT)的复合实现(MR);(13)人类幸福(自主智能系统的应有目标)。作为总论部分的“一般原则”包括(1)如何确保AI不会侵害人权(2)就社会繁荣度的指标而言,AI可以带来人类的幸福?(3)如何确认AI设计者、制造者、所有者与运用者的责任?(4)如何确保AI的透明度?(5)如何获得利益最大、风险最小的AI技术。各论部分对于现有指引内容过于抽象提出检讨,对于指引内容尽可能的予以明确化,例如对于“自律智能系统价值观的内容”的主题,其价值观内容固然应当符合社会的期待,不能违反法律规定与现存文化,但就规范与价值观而言,每个人的举止行为、语言、文化、艺术品味等各有自己的主观判断,自主智能AI系统应当如何设定学习方式就成为难点。不同形式的自主智能系统应如何搭配特定的规范或价值观,事实上也难以决定。首先,只能从特定群体(community)着手,针对符合特定工作(task)的自主智能人工系统,尝试寻求出可以遵循的规范内容。对于“自主智能系统的古典理论”的主题,AI的开发的伦理议题,不能仅围绕着西方伦理(功利主义、义务论、道德伦理学等)讨论,对佛教、儒教、日本神道等其他领域也应当加以考虑。
(2)人工智能百年研究(One Hundred Year Study on Artificial Intelligence)
该组织由斯坦福大学毕业生所创立,以今后100年AI长期发展为研究目标,判断人工智能对于社会有何种影响,每五年提出观察、分析报告的一项研究计划,其成果是2016年9月发表的《Artificial In- telligence and Life in 2030》研究报告,报告分为交通、居家服务机器人、健康照护、教育、低资源消耗共同体的实现、公共安全和保障、职场与雇用、娱乐等8个部分,从长期展望加以分析,特别是交通部分的自动驾驶汽车、无人机运用部分有较多的描述,在法政策方面则主要讨论隐私权、创新政策、民事责任、刑事责任、代理、资格、劳动、税、政治等问题。
(3)人工智能合作组织(Partnership on Artificial Intelligence to Benefit People and Society, Partner- ship on AI)
Partnership on AI是2016年9月由Amazon、Google、DeepMind(Google)、Facebook、IBM、Microsoft等成员所设立,2017年Apple、Open AI等新成员加入,日本Sony也希望加入,这是一个发展人工智能的世界 企业联合组织。该组织提出主题支柱(Thematic Pillars)重点有:①重视AI安全性(Safty-Critical AI);②公平、透明而具可说明能性的AI(Fair, Transparent ,and Accountable);③人们与AI系统的协调(Collab- oration Between People and AI Systems);④AI、劳动与经济(AI Labor and the Economy);⑤AI社会的影响(Social and Societal Influences of AI);⑥AI和社会利益(AI and Social Good);⑦特别提议(Special Initiatives)。针对AI研究与技术的信赖、国际习惯和尊重人权、说明可能性等重要问题,该组织提出8大信条(Tenets)供各界参考。
(4)生命未来研究机构(Future Life Institute)
该组织简称FLI,2015年由Skype共同创始人Jaan Tallinn等人所创设,该组织的咨询委员会由太空探索技术公司SpaceX社的埃隆·马斯克(Elon Musk)、宇宙物理学家史蒂芬·霍金(Stephen Hawking)、演员摩根·费理曼(Morgan Freeman)等14位人士组成。2017年1月在美国加州阿西洛马(Asilomar)以“人工智能对人类有何利益”为主题,同年2月公开发表阿西洛马AI原则(Asilomar AI Principles),该原则有23条,其中与伦理价值观有关的课题,整理如下:
四、建立伦理监督委员会
为处理人工智能伦理问题,德国成立数据伦理委员会,个别企业也设立道德指引的规则,鉴于人工智能使用数字化的风险,由国家制定法律作为规范固然重要。但企业自主规制与建立伦理委员会也是不可欠缺的机制,欧盟委员会欧洲科学与新技术伦理小组,提出尊重人性、自主性等伦理清单。本文介绍日本人工智能的伦理监督委员会,以供参考。
日本人工智能学会成立于1986年,学会的伦理委员会设立于2014年。2017年2月学会公布《人工智能学会伦理指针》,整理其具体内容提供参考:
结论与建议
探讨人工智能道德理论的法律论文数量很多,但能提出具体解决方案的有限,甚至有人认为人工智能设计者、使用者或法律规定的道德选择不在其讨论机器人道德范围内。本文认为这是一个必须面对的难题,根据“理论—规则”驱动进路,将特定群体认可的价值观和道德标准程序化为道德代码,嵌入智能系统,内置道德决策场景的指导性抉择标准。理论上伊曼纽尔·康德(Immanuel Kant)的道义论、约翰·密尔(John Mill)的功利主义和约翰·罗尔斯(John Rawls)的正义论都可以成为参考选项。
人类自由意志的问题,在哲学上争论甚久,波蓝尼悖论(Polany’s Paradox)认为,“我们知道的可能比我们能说出来的更多,如同司机的技能不可能完全用驾校的驾驶汽车理论来替代”。人工智能以海量数据信息为基础,可以按照既定算法进行预测,但人类拥有自由意志,在面对突发状况时也许会采取出人意料的决策,因为人类大脑掌握的能力高于既定的知识,可以说人类的思维存在着某种不确定的点,人们不是按照既定程序做决策,而是根据自由意志下判断。否定人类有自由意志的观点则认为人类的所有感受没有所谓“自由意志”,一切只是哺乳动物及鸟类拥有的生化机制,用来快速运算生存和繁殖的几率,直观的感受其实只是一套生化演算的结果。无论采取自由意志或生化演算的观点,人工智能的设计者都应当在算法设计阶段做好价值嵌入的程序,融入包括绿色、伦理、守法、自由、关爱在内的“共同善”的价值。
本文前述案例所提及的复杂问题,人类本身至今亦未能有一致的“正确”判断标准,如何期待程序设计者能够为人工智能嵌入一套具备普世价值的判断标准?马克思·韦伯提出诸神之争的本质是现代社会中价值观念之间的冲突,道德规范属于“应然”领域的价值判断,科学无法解决价值判断问题,沟通协调与坦然面对是理智成熟的解决方式,此部分仍有待人类共同努力。所以现阶段人工智能伦理规范多集中于外在规制层面,强调多元伦理原则,至于伦理规范的实质内容,或许可从人本主义为思考起点,以人性尊严作为人工智能立法的价值基础,以人的基本安全为底线,建立人工智能和机器人应用的基本伦理架构,作为人工智能规范政策的最高指导原则。在法制层面制定人工智能发展法,授权人工智能专门监管机构,建立全流程监管体系,成立“数据伦理委员会”,强化数据信息与隐私权保护,也是一个可行的方案。
2017年7月8日国务院制定的《新一代人工智能发展规划》强调采取三步走的战略目标:到2020年,部分领域的人工智能伦理规范和政策法规初步建立;到2025年,初步建立人工智能法律规范、伦理规范和政策体系;2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。在技术层面,国家标准化管理委员会于2018年1月成立国家人工智能标准化总体组,已发布《人工智能伦理风险分析报告》,目前正研究人工智能术语、人工智能伦理风险评估等标准。2019年我国亦发布《人工智能北京共识》《新一代人工智能管理原则》等重要文件,本文建议持续参考国内外伦理规范资料,设计政府部门的全国性监管方式、制定人工智能道德准则、成立各级人工智能伦理委员会,从而使得我国的人工智能规范更加完善。
往期精彩回顾
课题组|国家治理现代化视野下检察建议规范发展实证研究
孙紫轩 陈思彤|论纪检监察治理体系和治理能力的现代化——运用习近平法治思想推动新时代纪检监察工作高质量发展
《上海法学研究》集刊2021年第5卷目录
乔芳娥|人工智能对民事主体地位的挑战与应对——以未来强人工智能的出现为视角
孙紫轩|智能算法在监察领域应用的可能与限度
郑天衣等|AI法治新生态:智慧审判发展路径的理论建构与改革探索——以类案智能推送实证考察为视角
上海市法学会官网
http://www.sls.org.cn