AI能预测犯罪了,该赋予它“独立人格”吗?专家们这么认为
本文首发于南方日报11月1日B01版
记者|郜小平
人工智能(AI)机器人作品版权归属方是谁?人工智能能否在辅助办案时替办案人员作出决策?未来人工智能会不会挑战人类社会的秩序?在人工智能成为国际竞争的新焦点、经济发展的新引擎的同时,发展的不确定性也带来新的挑战;人工智能因其自主性和学习能力而带来不同于以往任何科技的新的伦理问题,对人类社会各方面也将带来重大影响。
上周,2018中国(广州)新一代人工智能发展战略国际研讨会暨高峰论坛在广州举办,人工智能的法律与伦理问题也引发了与会专家的热议。
AI能否拥有法律“人格”?
毫无疑问,引入人工智能有助于提升办事效率,在司法领域辅助办案也开始成为现实。
论坛上,科大讯飞医疗事业部副总裁陈德平介绍,科大讯飞联合上海开展206工程项目,即“上海刑事案件智能辅助办案系统”,与自动阅卷非常相似,通过机器学习全国最顶尖的法官判案的逻辑和标准,用大量的数据、案件“喂”它,让它像人一样能够给出一个案件评判的标准、量刑的尺度,经过两年多的探索,2018年3月份在上海全市正式开始试运行,不光是上海,目前山西、安徽、福建等地也开始尝试将这套系统应用在辅助断案上。
不过,AI在司法辅助办案上可以拥有多大的“权力”?广东省法学会网络与电子商务法学研究会会长、暨南大学法学院党委书记刘颖教授介绍,办案过程中引入人工智能分析,可以辅助检察官进行证据抓取、要素比对,还可以协助法官根据嫌疑人的成长经历、犯罪记录乃至其生活地区的犯罪率等数据,以判断再犯罪的可能性。但这也会带来一个疑虑:人工智能协助判案有没有正当性?
他举了一个例子:在美国威斯康辛州,一位罪犯申请减刑,陪审团利用人工智能手段,根据他个人的成长经历、成长的社区的环境,做出判断认定他有可能犯罪并不同意缓刑。罪犯马上上诉,“机器是某一家公司生产的,这个公司也许在软件的设计上对我一个有色人种持有偏见”,于是法庭要求公司公开算法,但被公司以商业秘密为由予以拒绝。
而另一方面,“无人售货”正成为当下的一个热点,自动售货系统,包括柜员机、自动售货机、平台等制定的合同有没有效?刘颖说,答案是肯定有效,但是其依据在哪里?人工智能机器只是设立机器的人的代表。2019年1月1日将实施的《电子商务法》明确规定,使用柜员机、自动售货机、平台等自动信息系统订立或履行的合同对使用该系统的当事人有法律效力。
“民事主体有一个发展的过程,早期被限于自由民,奴隶则被当成客体;但随着社会的进步,所有生物意义上的人都成为了民事主体。后来,民事主体还包括了拟制的法人。那么为什么人工智能不可能在一定程度上拥有‘人格’呢?”刘颖说,如果人工智能具有完全的自主性,能够承担责任,法律就有可能赋予它法律人格。
AI或将引发产权、数据安全等纠纷
在刘颖看来,一旦法律赋予人工智能以法律人格,这又可能会对当前的人格法、刑事责任制度、知识产权、侵犯责任或劳动法律制度,产生一系列的连锁反应。
2017年5月,微软和湛庐文化合作推出了小冰原创诗集《阳光失了玻璃窗》,这是人类历史上第一部100%由人工智能创造的诗集,也由此引发了学者的讨论:对于人工智能生成的内容,法律有没有可能赋予它知识产权?
“现在人工智能不仅可以写诗,还可以生产新闻、画画、创作音乐。我仔细看了微软小冰机器人写的诗集,还是不错的,它通过图像识别可以做到看图说话,比如它看到了沙漠,沙漠中有太阳,它可能就联想到‘大漠孤烟直’,就可以写出一段文字。”腾讯研究院法律研究中心副主任、首席研究员蔡雄山说,知识产权的归属也就成为一个难题:我创造了一个软件,写了很多诗,当我把这个软件卖了,它又出很多本诗集,获得的收益比软件还值钱,这肯定会引起一些产权纠纷。
这幅由 AI 艺术模型 GAN 创作的 Edmond Belamy 人物像,佳士得拍卖行为其估价 7000-10000 美元,2018,图 / Obvious Art
刘颖说,如果说人工智能是有法律主体资格的,那么以后要不要给工厂里进行劳动的机器人制定一个机器人劳动合同法?再进一步往下发展,人工智能是否要承担刑事责任,作为刑事责任能力的主体?
此外,各大城市已经陆续发放路测牌,无人驾驶的汽车发生事故之后责任怎么判定?蔡雄山说,到L4级和L5级阶段,不仅将实现完全的自动驾驶,而且汽车也将不再有方向盘,人也无法接管汽车,一旦出现责任事故谁来承担刑事责任,是生产汽车的厂商还是智能系统厂商?
AI还将引发数据安全的问题。“在人工智能时代,数据已经成为像石油和天然气一样重要,但AI系统需要数据‘喂养’,如何保护个人数据并区分非个人数据?比如无人驾驶汽车行驶汇总的数据,哪些可以交易?广东将建数据集群应用,如果数据产权不清晰,是否可以集中在一起?”蔡雄山说。
将社会伦理原则嵌入AI系统中
“在国外,关于人工智能伦理规范的文本已有不少,而中国还没有成行的文本。”蔡雄山说,如何让人工智能符合人类社会的各种规范和价值,最大化其好处,是构建普惠人工智能和有益人工智能必须解决的问题。
对此,他也提出了一些自己的建议,人工智能伦理应该遵循的一些基本原则:首先是自由原则,保障人的权利和自由,加强隐私保护,防止数据被滥用;其次是正义原则,确保算法决策的透明性,保障人工智能的权益在世界范围内公平分配,缩小数字鸿沟;第三个是福祉原则,要促进可持续发展,避免军备竞赛,要应对人工智能带来的就业影响等;第四是合伦理原则,把社会的伦理原则能够嵌入到人工智能系统上,让伦理设计和人类的规范相符合;此外还包括安全原则,保障安全,以及责任原则,应该探索人工智能应用的监管制度,保障安全,促进发展。
他山之石,可以攻玉。欧盟议会法律事务委员会也专门研究与机器人和人工智能发展相关的法律问题,早在2016年5月,该委员会提出了两个建议,第一个是对机器人适用强制保险机制,这类似于针对机动车的强制险,由机器人的生产者或者所有者负责购买,以便对机器人造成的损害进行责任分配。其次是设立赔偿基金;这一制度有两大目的,其一,对强制险未予覆盖的损害进行赔偿,其二,让投资人、生产者、消费者等多方主体参与这一机制,从而形成赔偿基金。
针对人工智能可能造成的数字鸿沟扩大,来自韩国的数字智力商数研究所创始人朴宥顯博士认为,应该让教育使孩子成为AI时代的主人,由此提出了“数商”的概念,她说,前两次工业革命时代提出了IQ,以适应工厂自动化技术的需要,而在工业3.0时代,城市化的浪潮下需要人与人的交融,于是EQ应运而生,而进入工业4.0时代,还需要一个新的数商,通过教育帮助孩子面对新的风险。
说到具有情感、智力和精神感应的智能生命体,我们并不陌生。 近者如《银翼杀手 2049》中具备出色情绪感知力的“AI 女友”乔伊
“人工智能进入大众视野,大家一定会记得阿西莫夫三大定律,用一句话来说就是,比人类更厉害的其实不是人工智能,而是掌握了人工智能的人类。”陈德平说。
【延伸】
各地关于AI伦理的法律探讨
联合国 2016年8月,COMEST发布“机器人伦理初步报告草案”,机器人不仅需要尊重人类社会的伦理规范,而且需要将特定伦理准备嵌入机器人系统中。
英国 《机器人与人工智能》呼吁加强人工智能伦理研究,最大化人工智能的益处,并寻求最小化其潜在威胁的方法。
美国 《国家人工智能研发战略计划》提出开展人工智能伦理研究,研发新的方法来实现人工智能与人类社会的法律、伦理等规范和价值相一致。
IEEE(电气和电子工程师协会) 《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景(第一版)》,鼓励优先考虑伦理问题。
业界 2017年Asilomar会议提出人工智能23条原则,涉及人工智能伦理和价值,推动有益人工智能发展,其中提及,将人类规范和道德价值嵌入人工智能系统。
【名词解释】
阿西莫夫三大定律
科幻作家阿西莫夫于1942年首次明确提出“机器人三定律”。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。