【思想】张吉豫:人工智能如何养成?从法制建构的角度出发 ︱ 中法评
张吉豫
中国人民大学法学院副教授
未来法治研究院研究员
人工智能技术既是当前各国科技研发与应用推广的重点,也对伦理、安全和隐私等方面带来了诸多挑战。如何更好地促进其良性创新发展,是当前法治建设面对的重要命题和挑战。
一方面,人工智能技术正处于高速发展时期,缺少确定性,需要一定发展空间来逐步完善;另一方面,当前人工智能技术在很多领域取得突出进展的同时,在安全性、可解释性等方面的发展却相对滞后。
应从专利制度、侵权责任制度和政府机构管制三个方面的结合来考虑,构建可以更好地促进可信人工智能创新发展的法制环境。
目次
一、引言
二、法律制度对科技创新的激励与规制
(一)法律制度对技术创新的激励
(二)科技伦理、风险与法律规制
三、当前人工智能发展特点与法律规制要求
四、推进可信人工智能创新发展的法律制度
五、结语
本文原题为《人工智能良性创新发展的法制构建思考》,首发于《中国法律评论》2018年第2期思想栏目(第108—118页),原文14000余字,为阅读方便,略去脚注,如需引用,请点此购刊,参阅原文。
引言
“科学进展是一种悲喜交集的福音。”这在人工智能领域体现得尤为突出。
自第一次工业革命以来,世界各国逐渐形成共识:科技创新对于社会进步、经济增长、人类福祉的提高和国家安全与竞争力提升有着重要意义。这尤其体现在各国政府重视和鼓励创新的政策上。特别是21世纪以来,每一次科技界提出一个新的发展方向,很快就可以看到多国政府纷纷研究并发布促进政策。
在2016年AlphaGo战胜人类顶尖围棋手之后,人工智能这一概念成为社会各界关注的焦点。
尽管“人工智能”并不是一个新的概念,在1956年美国达特茅斯人工智能暑期研究计划会议上就已将人工智能这个名词固定下来;但近十年来以深度神经网络为代表的人工智能算法在图像识别、语音识别等领域取得的突破性进展,再结合超级计算机和云计算平台提供的强大计算能力,以及传统互联网、移动互联网和正在发展的物联网所带来的日益丰富多样的数据资源,为人工智能的发展绘制了一幅可信的光明图景,引起了美国、欧洲、中国等多国政府的高度重视。
2017年7月,中国国务院在《新一代人工智能发展规划》中提出“人工智能成为国际竞争的新焦点。人工智能是引领未来的战略性技术,世界主要发达国家把发展人工智能作为提升国家竞争力、维护国家安全的重大战略”,我国要“抢抓人工智能发展的重大战略机遇,构筑我国人工智能发展的先发优势,加快建设创新型国家和世界科技强国”。习近平总书记在中国共产党十九大报告中指出,要“推动互联网、大数据、人工智能和实体经济深度融合”。
由此可见,发展人工智能科技和产业应用是当前阶段党和国家的一项重要方针政策,是在目前各国大力发展人工智能的国际环境下,提升我国国家安全和全球竞争力、增进社会福祉的重要路径,有必要创建能够保障和促进人工智能技术创新发展的良好制度和政策环境。有利于人工智能产业创新发展的法律制度则是其中一个非常重要的方面。
然而,在各国发布政策推进人工智能发展的同时,许多政府及民间组织也意识到人工智能在伦理、安全、隐私等诸多方面为人类社会带来的重大挑战,纷纷提出对人工智能技术加强管制的要求和建议。实际上,呼吁政府对新技术进行监管并不罕见;新技术的发展也需要建立比较明确的法律规范,使产业界和消费者均对技术应用的法律有明确的预期。
但此次引人注目的是,很多科技界、产业界的领军人士都开始表达对于人工智能技术的担忧,—些行业协会、产业组织也对伦理和安全高度重视。
例如,美国电子和电子工程师协会(IEEE)设立了自主与智能系统伦理全球倡议项目,连续两年发布了《人工智能设计的伦理准则》白皮书;美国计算机协会下属美国公共政策委员会也在2017年年初发布了《算法透明性和可问责性声明》,提出了七项基本原则;等等。
在上文所述国务院《新一代人工智能发展规划》中提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”,包括:
(1)制定相关安全管理法规,为新技术的快速应用奠定法律基础;
(2)民事与刑事责任确认;
(3)建立追溯和问责制度;
(4)加强对人工智能潜在危害与收益的评估;等等。
中国电子标准化研究院在国家标准化管理委员会工业二部的指导下,组织编写并发布了中国《人工智能标准化白皮书》(2018年版),其中包含了“人工智能的安全、伦理和隐私问题”部分,体现了关于人工智能的伦理和法律规制的考虑。
尽管已产生诸多倡议,但在相关政策法规还不明晰的同时,人工智能技术在社会中已逐渐开始得到应用,对人们的生活产生着日益明晰的影响。
一方面,人工智能算法日益广泛地渗透到用户画像、事件抓取与画像、信息精准推送、征信、数字化文学艺术作品生产等应用领域,直接影响着人们在线上网络空间的生活,并间接与处于线下物理世界的我们发生联系。另一方面,与机械装置的控制相结合、直接作用于物理世界的人工智能的应用也已展开。例如,在自动驾驶领域,我国北京、上海、重庆等城市已经出台试行政策,支持自动驾驶汽车测试。
诸多机构预测,在不远的将来,人工智能在医疗、交通、金融服务、媒体、广告、零售、制造、教育等领域的应用将日益普及。而当前也已经出现了自动驾驶汽车的交通事故、司法定罪量刑中的算法歧视与不透明性、电子商务中“算法杀熟”、人脸识别与隐私忧患等一系列具体问题。
人工智能的法律规制需求已近在眼前。
当前我国法律制度的发展完善面临着一项急迫的任务:面对人工智能这样一项正处在飞速发展阶段的复杂技术,如何更好地构建法律制度,以在推动人工智能技术创新发展的同时,能够良好应对人工智能技术可能带来的伦理挑战和社会风险问题。
技术创新一方面充满着不确定性,可能给社会带来新的风险;另一方面技术创新又为社会发展、人类福祉的提升带来新的机遇,并且需要一定发展空间以使其逐步完善。然而,目前支撑这一领域法治建设的法学理论和实践经验都并不充分,有待法律界积极探索。正如曼尼(Geoffrey A. Manne)等所指出的,“关于创新、竞争和监管政策之间的关系,已知与未知之间的比例惊人地低”。
本文旨在研究如何为安全可信的人工智能技术创新构建良好的法律环境,分析典型法律制度对科技创新的激励与规制特点,探讨当前人工智能技术发展特点与法律规制,为相关法律制度基本框架的构建提出一些初步建议。
法律制度对
科技创新的激励与规制
科技界时常有一些“颠覆性创新”,然而对于法律这项人类的古老发明,基于对法的稳定性的追求,人们在面对新问题构建法律时,往往倾向于更多地在已有的概念、原则、制度的基础上进行发展,以满足对体系稳定性的需要。因此,在具体探讨激励和规制人工智能创新发展的法律制度之时,必须借鉴法律对科技创新的激励与规制。
(一)法律制度对技术创新的激励
在整个人类历史长河中,人类科技的创新发展曾经非常缓慢,直到近几百年才发展日益迅速,而在近几十年中则以指数级增长的速度发展。一种得到众多支持的假说认为,如果某一领域的发明进展非常缓慢,最有可能的原因是支撑相应研究的社会制度匮乏。
有研究指出,在公元前2600多年的古埃及时代,伊姆贺特普(Imhotep)等一些“政府雇员”们解决了金字塔建造中遇到的很多技术难题,用现在的术语讲,这些成就归功于政府在研发领域里的直接采购。而在更广阔的民用领域则缺少“政府采购”,也鲜有如此令人瞩目的发明。
在公元前600—公元前300年的古希腊时代,除政府在研发领域的直接采购外,促进研究和探索的制度还包括了给予研究者高度的尊敬和声望、以教师为中心来组织学校等。这种制度对发明的激励来源于政府的需要和研究者的兴趣。
实际上,在人类社会发展的相当长的时间中,法律并不主动地深度介入技术创新领域。直到1474年威尼斯元老院专利法案的诞生,以促进技术创新和应用为宗旨的现代专利制度才初步形成。专利、奖赏、赞助等制度成为了现代欧洲社会激励科学发展和技术创新的重要工具,互相配合,互为补充。
与政府采购、奖赏等制度不同,现代专利制度实际是由市场决定一项技术能够给发明人带来的经济回报,而并非依赖少数主体来决定资金的分配。因而专利制度为真正满足市场中人们需求的那些发明创造提供了激励。
现代专利法在激励技术创新方面具有如下几方面的特点:
(1)总体上而言,专利制度一般并不主动限制技术创新发展方向,对于不能获得专利保护的技术领域仅有非常有限的限制。
(2)专利制度不主动引导技术创新发展的具体方向,但由于专利制度并不直接奖励创新,而是通过市场产生作用,因此,专利制度所真正激励的创新,是有望在市场上获得广泛应用的技术。
不同于奖赏、赞助等直接提供经济回报或支持的促进技术创新方式,专利制度不但没有直接给予发明人经济收益,还要求发明人在申请时缴纳申请费,并在授权后在希望保持专利有效的时间内缴纳年费,且专利年费一般随着时间的推移而阶梯性升高,以此来敦促那些已经基本明确无法给权利人带来收益的专利技术尽快进入公有领域。
因此,在单纯的专利制度下,如果一项专利技术完全没有市场应用需求和前景,拥有该专利并不能给专利权人带来实际的经济收益,相反,还由于需要交纳年费而徒增成本。当然,有的时期会存在一些特定的政策,给单纯的专利制度加上一些市场之外的激励。
例如,个人可能凭借专利获得某类评价上的优势,企业可能享受地方政府的专利申请费补贴或凭借专利享有减免税收等优惠,但这些并非专利制度本身之意,关于这些政策对于专利制度的利弊也有很多讨论。
因此,在不考虑其他特殊政策的单纯专利制度下,只有对在市场上能够被使用的发明创造,企业获得相关专利权才能使企业在市场竞争中获得更加优势的地位有积极意义。这种制度设计实际上使专利与市场需求建立起了密切联系。
在一定意义上,专利制度建立了一种由市场需求引导技术创新发展方向的法律支持。这一方面有利于使技术创新更切合市场需求,另一方面实际上也对专利制度能够激励的技术创新领域产生了限制。
(3)专利制度与促进技术创新发展的关系仍有许多质疑。例如,1958年,美国经济学者弗里茨·马克卢普(Fritz Machlup)在向美国国会提交的一份关于专利的研究报告中提出:“如果我们没有专利制度,在对专利制度经济后果现有了解的基础上,建议建立专利制度将是不负责任的;但是我们既然已经在很长时间内实施了专利制度,在现有了解的基础上建议废除专利制度也是不负责任的。”
(4)专利制度在软件和商业方法的授权条件方面仍有较大的争议。对于人工智能技术而言,很多创新将涉及软件和商业方法。如何设置授权条件以符合人工智能的创新激励需求,仍值得进一步观察和论证。
除专利法外,我国《科学技术进步法》从其他方面原则性地规定了一些科技创新激励制度,主要包括:
国家建立科学技术奖励制度,对在科学技术进步活动中做出重要贡献的组织和个人给予奖励;
设立自然科学基金等基金,资助科研;
税收优惠政策;
鼓励和引导金融机构在信贷等方面支持科学技术应用和高新技术产业发展,鼓励保险机构根据高新技术产业发展的需要开发保险品种;
政府采购的优先考虑;鼓励企业设置内部科学技术研究开发机构和依法设置博士后流动站;
明确关于国家资助科研项目的知识产权归属;等等。
(二)科技伦理、风险与法律规制
自19世纪末20世纪初开始,人们发现一些新兴科学技术的发展可能挑战人类的伦理道德,或可能带来公共风险,因而开始相对比较积极地通过法律对一些特定领域的科技研发和应用进行规制。
在对人类传统伦理道德的挑战方面,人类胚胎干细胞的研究是一个典型实例。胚胎干细胞是指一类起源于胚胎,处于未分化状态,可以长期自我分化和自我更新,具有在一定条件下分化形成各种组织细胞潜能的细胞。胚胎干细胞可能发育成人类的各种组织或器官,可能用于攻克很多原本难于医治的疾病,具有非常重要的科研和医学应用价值。
然而,人类胚胎干细胞的研究涉及比较激烈的伦理争议。
一方面,在提取人类胚胎干细胞时很有可能会使胚胎受到破坏甚至摧毁,而该胚胎是本可能发育成人的,因此涉嫌杀害人类生命。另一方面,很多人士担心人类胚胎干细胞的研究可能会导致完整的克隆人,即实质进行不同于“治疗性克隆”的“生殖性克隆”,这对人类尊严和伦理维系都带来挑战。
因此,英国、美国、澳大利亚等许多国家都出台法律,对人类胚胎干细胞的研究予以管制。我国科学技术部、卫生部也联合下发了《人胚胎干细胞研究伦理指导原则》,并在卫生部发布的《医疗技术临床应用管理办法》《人类辅助生殖技术规范》中也进行了相关规制。
同时,许多国家还进一步规定不对胚胎干细胞相关的技术方案授予专利。例如,我国现行《专利法》第5条中规定,对违反法律、社会公德或者妨害公共利益的发明创造,不授予专利权。在国家知识产权局发布的《专利审查指南》中规定,人类胚胎干细胞及其制备方法,均属于《专利法》第5条第1款规定的不能被授予专利权的发明。
由此可见,整体上而言,对于人类胚胎干细胞研究这类引起了重大伦理争议的技术,法律中倾向于采取比较严格的管制,并且拒绝予以激励。
在风险方面,自工业化以来,现代科技和大规模生产所带来的风险与日俱增。正如德国学者乌尔里希·贝克(Ulrich Beck)所述,现代社会中的公众可以切实感受到人类社会已经进入“风险社会”阶段。美国学者彼得·休伯(Peter Huber)则进一步将风险区分为“私人风险”(private risk)和“公共风险”(public risk)。
公共风险这一概念用来指代那些集中或大规模生产的、广泛传播的,且在很大程度上超出了个体风险承担者直接理解和控制的给人的健康或安全带来的威胁。
—般认为,绝大部分的公共风险具有两面性。
例如,疫苗往往不会是100%的灭活,总会让一些人患病;但整体而言,却增进了公共健康。再如,可以想见,自动驾驶技术并不能完全避免交通事故的发生,总难免会有人因自动驾驶而遭受损伤,但也有许多人士预测,发展成熟后自动驾驶的普及除了可以为人们增加便利之外,也将可能从整体上大大降低交通事故发生的概率。
在风险治理方面,一般存在市场和政府两种手段,对应到法律制度层面,则主要有侵权法和政府规制两种进路。侵权法是一种间接的规制模式,主要通过承担侵权责任的威慑来影响未来的行为,促使相应的主体提高注意程度,进而减少风险。
政府规制则是政府通过设定相关行为的准入门槛、行为标准、要求强制披露风险活动的信息等方式来达到减少风险的目的。
两项路径比较而言,侵权法依赖于事先固定的法律以及在事后对引起损害的事实的认定,更多地关注于个案,能够通过双方当事人及律师的对抗获得个案更全面的信息,其实际对人们行为的影响力依赖于被侵权者对于他人过错或产品缺陷责任等的证明能力。
政府机构则更便利组织跨学科专家团队,对一个领域进行长期跟踪和定期考察,满足监管所需的技术性、事实性判断,通过设置产业标准等途径影响科技企业的行为和技术产品的特性,并通过发布标准、进行公共宣传,收集和传播风险信息等途径,使公众更容易推断一类产品的相对安全性。
综上,对于新兴技术的创新发展,专利制度针对市场竞争环境提供了本身不加过多选择的“中立的”研发激励,市场需求实际在很大程度上决定了技术创新发展方向,而针对伦理道德和风险治理需求的法律规制则对市场和行为进行了干预,引导技术创新向更加符合人类福祉的方向发展。
由于规制在很大程度上影响了市场,在一定意义上,规制的导向也间接指导了专利制度能够激励的创新方向。在针对新技术发展构建创新友好型法律环境时,应该结合专利激励与法律规制来综合分析考量。
当前人工智能发展特点
与法律规制要求
尽管人工智能的法律规制还是一个相对较新的话题,但已有许多学者和实务界人士从法律规制的视角下从许多不同方面分析总结了人工智能的主要特点。
例如,马修·谢勒(Matthew U. Scherer)提出了人工智能如下方面的特征使其在法律规制上较为困难:(1)自主性、预见性和因果关系方面;(2)控制方面;(3)研究和开发方面:谨慎程度低、分散开发、应用大量构架组装和不透明性。
再如,美国学者瑞安·卡曼(Ryan Calo)在对人工智能的一个领域——机器人法——进行研究时指出,机器人与互联网相比具有不同的基本特质,因此会引发不同的法律问题,这些特质包括:机器人第一次将基于多维、多来源数据的算法与对人身造成伤害的能力结合起来;机器人系统以不可预知的方式完成任务;机器人越来越模糊人与工具之间的界限;等等。
而杰克·巴尔金(Jack M. Balkin)教授则认为,由于技术在社会生活中的应用不断发展,而且人们不断寻找新的方式来善用或不善用技术,所以在特定的时刻冻结某些使用特征并将其标记为“必要的”可能是无益的。
上述总结都是从侵权法和政府规制角度减少和合理分配人工智能技术风险的重要视角。本文在此无意再从上述角度进行全面分析,而是希望从对传统工程技术和信息技术产业实践的观察出发,说明即使是存在专利制度激励、国家奖励的前提下,产业界仍然缺少足够的动力来加强在产品安全性、正确性方面的创新技术的研发和应用。
然而对于以深度学习为代表的新一代人工智能技术而言,其安全性、可解释性方面的技术创新发展还远远不够,其应用的普及性、传播的迅速性、更加突出的不可解释性和不可控性等,都使我们有必要通过更多的途径来促进人工智能安全性、可解释性方面的研发。
在2017年的人工智能重量级会议神经信息处理系统进展大会(NIPS)上,阿里·拉希米(Ali Rahimi)将人工智能中的机器学习技术比作炼金术。他指出,人工智能技术就好像当年的炼金术一样“管用”。炼金术带来了冶金、纺织、玻璃、医疗等领域的大量发明和技术进展,但同时炼金术也有一些谬误存在,例如相信可以点石成金。从过去的炼金术到现代物理和化学,科学家们花费了2000年的时间。
对于某些并不是那么关键的领域,采用单纯的技术可以解决问题,例如使用炼金术来提炼纯度更高的物质,或者使用机器学习来识别车牌号码。但如果是关键场景,则需要我们更加谨慎,如期望用机器学习来影响判决、选举等。
在工程领域,产业界常常并没有强烈的直接动力在系统安全性和正确性方面做出更多投入,更常见的应对是来源于问题发生之后的补救和分析。1849年,列队士兵齐步通过法国曼恩河上大桥时,由于共振导致桥身断裂,但桥梁载荷远未超过许可范畴。塔科马海峡大桥坍塌也是未考虑风载荷的共振而导致稳定性不足的一个著名案例。
正是类似事件,推动了相关理论的研究发展,并最终导致相关强制性标准的出台。
例如,美国AISC360-10钢结构建筑规范和我国工程建设强制性标准,都指出设计师们在结构设计时,应根据情况对主要结构进行动力分析,并对照动荷载频率的统计进行调整来避免共振的影响。即使如此,如果要防止共振,必须要改变外部激励频率或者结构固有频率。由于外部振动激励并不确定,而结构的固有频率调整也是很困难的,因此在设计中也只能有减轻振动的大体设计原则,而无法完全规避。
再如,目前关于工程领域疲劳的计算大都是基于统计数据,疲劳寿命以及各种导致疲劳出现的因素表现为方差极大的概率分布,这是建立有效疲劳理论的“瓶颈”。在工程实践中即使结构应力远低于疲劳极限也存在失效的可能,只是概率比较低。但即使如此,在机械和材料相关的诸多领域,也都确定了和疲劳测试相关的行业强制性标准。
在计算机领域,自从计算机问世以来,计算机系统的不确定性问题就一直伴随着计算机的发展而存在。计算机软硬件安全漏洞产生的根源在于系统惊人的复杂性,例如,Linux操作系统内核的规模在过去呈指数级增长,2015年6月发布的4.1版本Linux内核代码库的代码量已超过1950万行。
流行的Windows系统则超过5000万行代码,集成了数万个驱动程序。主流的商业操作系统或大型应用系统都由上千万甚至上亿行代码构成。在计算机的核心硬件部件处理器设计中,几十亿个晶体管构成的超大规模集成电路已经非常常见。
1994年英特尔公司的奔腾系列处理器曾被发现了一个浮点除法部件的错误,该错误仅会在极端的大量数学工程计算中导致错误结果,但英特尔公司最终为此遭受了近5亿美元的损失。正是在此之后,英特尔公司引进了剑桥大学开发的基于高阶逻辑的定理证明器HOL系统33并开发了商业化的形式化验证系统FORTE,将形式化方法引入验证流程从而改善系统设计的可靠性。
2018年1月报道的英特尔等公司的处理器中的“熔断”和“幽灵”设计漏洞,对数十亿颗处理器芯片造成难以消除的影响,经济损失难以估计。而在之前很长的一段时间内,首先以及主要关心系统安全和正确性的还是学术机构的研究人员。过去的大量实践情况显示,产业界在系统行为的风险控制和产品性能、研发成本等方面进行权衡时,更多选择性地忽视了前者。
以“熔断”和“幽灵”设计漏洞为例,所有应用了分支预测和高速缓存技术的现代乱序超标量商业处理器几乎都存在这两个漏洞。即使在1995年就有研究人员对英特尔的处理器提出了风险质疑,即使专业人员几乎都知道被使用的计算机缓存原则上应该被清除,该漏洞一直到2018年才被公诸于世,并一直存在于包括英特尔、IBM、ARM等重量级公司的芯片产品中。
也许是由于计算机软件系统能够通过在线更新或者补丁的方式修正错误,软件厂商们甚至可能对设计本身的安全性和正确性关注得更少。
例如,早期的Windows操作系统并不提供数据执行保护,这会使内存数据可以当作代码来执行。2003年,一款名为“冲击波”的病毒扫荡全球之后,微软将其Windows XP升级为第二版服务包(SP2)时,才加入了数据执行保护,避免在数据区域执行代码。由于软件在系统的重要性越来越重要,其可信性问题也日益突出,这里所说的可信性,通常指在特定环境下其运行行为及其结果符合人们预期,并在受到干扰时仍能提供连续有效的服务。
在过去的研究中,为获得令人满意的软件可信性,形式化方法和工程化方法虽然取得了很大的进展,但在实际应用中,相关的可信性软件构造、评测和确保等技术工作仍然严重滞后。此外,软件的运行环境和开发环境已经从传统的封闭静态环境延伸到了开放动态的分布式与网络环境,其中计算实体的行为存在不可控性和不确定性,这既对传统的软件开发方法和技术提出了挑战,更对运行时刻的可信保障提出了严峻的挑战。
实际上,如何保证系统的可信性并给予恰当的评价也是非常困难的。
2005年,美国科学院组织了专家小组对此进行了研究,咨询报告建议用更好的证据来评估改进可信性的方法,软件可信性问题的关键是证据的构造与评价等,可通过收集足够的证据来支持软件的可信性认证。
这些结论和建议可能也适用于人工智能系统,我们可能需要围绕可信性目标,建立证据以及论证证据说明目标是否符合预期。
从系统复杂性来看,人工智能特别是深度学习技术的处境可能会和建筑、机械等工程领域的发展存在相似之处。目前的人工智能,特别是其中有关深度学习技术的理论亟待获得突破。但实际上由于复杂系统中的高维度、非线性、随机性以及大量反馈环节的存在,使理解和解释复杂系统从来都是极其困难的。
在具体的应用场景上,由于梯度下降方向的选择等问题,以机器学习为代表的人工智能技术并不稳定。很多时候我们会把脆弱的技术用在了我们并未完全理解的场景上。而深度学习则为复杂系统的神秘性增加了更多的不可知因素。
人工智能技术领域的应用范围相比传统工程技术可能更为广泛,在广度和深度上都可能更具影响力。对共振的不理解可能导致桥梁坍塌,对疲劳理论的不理解可能导致飞机坠毁,这些事件的发生固然重大,但就事件本身而言不具有传播性,在概率上也不具普遍性。但广泛基于计算机技术的人工智能系统,一旦在关键应用场景出现严重错误,则有可能在极短时间内在极广泛范围内造成灾难性影响。
此外,人工智能技术的发展速度明显更快,随着计算能力和数据规模的大幅度增强,深度学习技术近十年来获得了令人难以置信的发展。指数级的发展速度使未来难以预测,这也使我们有必要以更加审慎的态度对待人工智能相关技术的发展。
尽管有国家奖励、专利制度等激励,信息行业在安全性、正确性方面的创新投入远远不足。这在一定意义上提示我们,如果想更大力度地促进安全性方面的研究投入,可能有必要结合侵权责任制度和政府监管来进行探索。
在当前全球范围内人工智能发展应用势不可当的前提下,应该看到当前人工智能技术迅猛发展的趋势和潜在的社会影响,同时看到人工智能技术在当前安全性、可解释性等方面技术创新的相对滞后,吸取之前软件产业正确性验证等方面发展相对落后的经验教训,构建可以更好地促进可信人工智能创新发展的法制环境。
推进可信人工智能
创新发展的法律制度
一方面,人工智能技术正处于高速发展时期,缺少确定性,也需要一定发展空间来逐步完善;另一方面,当前人工智能技术在很多领域取得突出进展的同时,在安全性、可解释性等方面的发展却相对滞后。这些都是人工智能技术发展的特点,在法律制度构建中需要予以考察。
专利制度、侵权责任制度和政府机构管制均对技术创新有一定的影响,而不同法律制度具有不同的特点和具体目的。
可以从上述三个方面的结合来考虑,如何在保有一定人工智能技术创新发展空间的同时,通过法律制度保障其合伦理性、控制和减少风险,并促进对人工智能安全性、可解释性领域的研发投入。
正如本文在第二部分中所述,那些不会在产业上加以利用的专利技术,无法从市场上给发明人带来收益,由此专利制度将难以激励人们加大对这类技术创新的研发。而产业上是否会采用某些技术,与法律对相关风险承担的分配有密切关系。目前主流人工智能技术在安全性、可解释性方面还没有得到充分发展和广泛的研发投入。
此时,一方面,如果法律简单地规定人工智能产品提供者在产品致人损害时的归责原则为严格责任原则,或者在政府监管时忽视了相关技术尚不成熟且正飞速发展的实际情况,创设过高或者过于单一的准入门槛,则有可能导致人工智能企业的大幅度减少,进而亦不能保障足够的主体参与安全、可解释人工智能技术的创新。
另一方面,如果法律一直设置较低的准入门槛,也不规定相关责任,则可能致使企业没有动力去应用新的安全和可解释性方面的技术。这其中的界限应划分在哪里,需要跨领域专家针对具体的典型应用开展密切合作和深入考察。相关法律制度的构建可以从以下几方面开展:
(1)制定法律,设置人工智能产业发展与安全委员会,由其组织论证,将人工智能的主要应用加以区分和考察,进行风险预评估,确定需进行特别规制考察的人工智能产品或服务,并组建相应的专家委员会进行标准制定或审查、认证规则制定及法律规制构建。
并非所有的人工智能应用均需要特别规制。例如,有一款移动智能终端上运行的应用程序“微软识花”,它可以识别用户拍摄的花朵,并自动分析输出它判断的结果——是哪种花和正确概率如何。这也是一款结合了智能图像识别的人工智能产品,但这类程序在合理提示了自身判断局限性的情况下,并不会不合理地致人损害或带来公共风险。
在设置具体法律规制方面,本文认为当前重点在于建立一套结合不同法律规制及其特点的理论框架,使前述委员会可以相对容易地在进行了调研的基础上构建具体的规则。
例如,可在一定程度上参考谢勒(Matthew U. Scherer)等提出的双分支侵权体系(a bifurcated tort system),并在其基础上进行扩展,对于获得委员会认证或符合推荐性标准的产品,则在判断产品提供者是否侵权时适用过错责任原则;对于未获得认证或不符合推荐性标准的产品,则在判断产品提供者是否侵权时,适用严格责任原则。
(2)考察强制保险制度和赔偿金制度的适用性;引导和鼓励在人工智能领域中的商业保险,增强社会抵御风险的能力,使其在现代社会风险防范体系中更好地发挥作用。
(3)关注专利制度与标准必要专利。密切关注专利制度中软件和商业方法相关发明创造可专利性的判断标准,在可能影响到人工智能安全、可解释性创新发展时组织论证。并且,在产业标准制定过程中,应注重加强对促进安全、可解释等方面的先进技术的引入。
一方面将先进技术引入标准,促进相关技术的推广应用;另一方面通过标准必要专利的公平、合理、无歧视许可原则或其他机制,保障相应专利的公平合理许可。
结语
人工智能技术的发展和应用为法学研究和法治建设提出了新的问题。对于快速发展的人工智能技术,侵权责任分配以及监管规则将对相关市场产生重要影响,并通过与专利制度的结合,间接引导着技术创新的发展方向。
从一定意义上来看,责任分配和法律监管对此类创新的影响比专利制度更为重要也更为基础,需要进行审慎论证。
应设置人工智能产业发展与安全委员会,针对重点应用领域进行调研,并重视对于正在快速发展的人工智能技术对发展空间的需求,以及人工智能技术中安全性、可解释性等方面发展相对滞后的现实,从专利制度、侵权责任制度和政府机构管制三个方面的综合考虑出发,构建可以更好地促进可信人工智能创新发展的法制环境。
本文是国家社会科学基金青年项目(15CFX045)的阶段性研究成果。
推荐阅读
於兴中:必须警惕“人工智能万能论”,科技乌托邦不是人类的未来
李本(Benjamin L. Liebman):美国司法实践中的人工智能问题与挑战