查看原文
其他

陈俊秀、李立丰:“机器意识”何以可能 ——人工智能时代“机器不能被骗”立场之坚守

陈俊秀、李立丰 数字法治 2022-12-01

点击蓝字 关注我们


陈俊秀:福建福州人,法学博士,福州大学法学院讲师,主要从事中国刑法学研究、德国刑法学研究,E-mail:18606026720@163.com。

李立丰:吉林公主岭人,吉林大学法学院教授,博士生导师,主要从事比较刑法学研究。

本文原载《大连理工大学学报(社会科学版)》2020年第6期,转载对注释与参考文献进行了省略。

摘  要

传统刑法理论囿于机器不存在意识和认知能力,无法陷入“认识错误”而处分财物或财产性利益的事实层面,得出“机器不能被骗”的刑法命题。以形式化算法为基础的人工智能无法充分模拟以“生物算法”为基础的人类意识,“机器意识”在理论上的可能性和技术上的可行性均存有疑问。机器意识之实现与验证于目前而言无法证成,其将来实现之可能性也无法证伪,“机器不能被骗”理论毋宁视为从人类理性、人类尊严出发,降低人类未来生存风险所必须遵循的前提假定。将人工智能定位为法律的客体,排除其拥有独立于人的意识。纾解“机器不能被骗”之教义学阐释路径:在“人机关系”中,机器之管理者被骗,即当行为符合人工智能程序的预设条件时,机器所作出的反馈性行为应当视为机器管理者的思想表达;机器处于“占有辅助者”地位,从属于上位者,通过事先内置特定的指令程序以实现机器管理者的意志,属于事实行为,而并非机器的“法律行为”;综合考量行为人的欺骗行为与机器预设同意范围,若行为突破管理者事先预设的同意条件范畴,不能认定为机器之管理者被骗。

关键词

关键词:人工智能;机器意识;诈骗罪;机器不能被骗;教义学阐释


一、问题的提出


2017年7月,国务院发布《新一代人工智能发展规划》,从国家顶层设计上将“人工智能”正式上升为国家战略。同年10月,“人工智能”被写入十九大报告,推动互联网、大数据、人工智能和实体经济深度融合。人工智能技术在给社会经济发展创造巨大推动力的同时,也给传统的刑法学理论提出了许多新课题,主要集中于人工智能的刑事风险与刑法应对、人工智能的刑法地位以及涉人工智能犯罪问题等。人工智能时代社会交往场景的逐步智能化、自动化与无人化,导致传统侵财犯罪罪名之间的界限划分日益模糊。传统刑法理论认为“机器不能被骗”,那么人工智能时代智能机器所具备的“认识能力”和“处分能力”是否突破了传统的“机器不能被骗”的既有认知?传统以自然人的“认识错误”为要件的诈骗罪,能否有效应对人工智能语境下针对智能机器为犯罪对象的诈骗行为?

刑法中“机器能否被骗”命题的探讨主要从诈骗罪的语境展开:诈骗罪的行为基本构造是“行为人实施欺骗行为—受骗方产生(或维持)错误认识—基于错误认识处分财产—行为人或第三者取得财产—被害人遭受财产损失”,即无“错误认识”便无诈骗罪适用之空间。按照传统的“机器不能被骗”这一刑法基本共识,客观上无认知能力的机器、幼儿、严重的精神病患者不能成为诈骗罪的受骗者。在人工智能时代刑法是否应当继续坚守传统刑法“机器不能被骗”命题?本文在坚守“机器不能被骗”基本立场的同时,从解释学上论证“机器之管理者被骗”,并对其前提条件予以限定,阐释刑法规范背后的正当性依据。

二、“机器能否被骗”理论争议聚讼

当前刑法理论界对于“机器能否被骗”问题的论辩可以划分为“机器不能被骗”和“机器可以被骗”两大阵营。与此同时,刑事司法层面的相关解释和适用也混沌不清,有必要对其争议焦点予以梳理和反思。

1.“机器不能被骗”

持机器不能被骗的论者认为,机器是没有意识的,其不可能被骗。按照诈骗犯罪的基本构造,机器当然不具备认识能力,即不存在认识错误,不可能构成诈骗罪的受骗者。“机器不能被骗”理论是盗窃罪和诈骗罪得以区分重要依据之一,否则将导致诈骗罪丧失其行为类型化机能。按照“机器不能被骗”立场,行为人利用重量、大小相等的游戏币冒充硬币,在自动售卖机中使用,数额较大的,成立盗窃罪。“机器不能被骗”观点之实定法依据在于我国《刑法》第196条第3款规定:“盗窃信用卡并使用的,依照本法第264条的规定定罪处罚。”据此,无论盗窃信用卡对自然人使用,抑或是对机器使用,均构成盗窃罪。有论者以日本的“使用计算机诈骗罪”为依据,对“机器不能被骗”观点提出质疑。张明楷认为,日本之所以增设“使用计算机诈骗罪”,其初衷是为了处罚盗窃财产性利益的行为,因为按照日本刑法的规定,盗窃罪对象仅限于财物,而诈骗罪的对象则包括财物与财产性利益。

除此之外,有学者主张对“机器不能被骗”观点进行修正,以“预设的同意”理论为视角进行论证,在坚持机器本身不能被骗的前提下,认为机器背后的归属者可以被骗,将机器能否被骗问题转化成探求机器背后的“雇主”被骗问题。于本质上而言,这种针对机器背后的人实施的欺骗行为,与直接对柜台的自然人实施的欺骗行为并无二致,应当认定为信用卡诈骗罪,而非盗窃罪。因此,“机器不能被骗”理论,仅仅是强调作为机器本身不能陷入认识错误,进而受骗交付财物,但并不意味着机器背后的人不能成为诈骗罪的对象。德国司法实践中均有判例支持“预设的同意”,例如破解赌博机的程序,将赌博机器内的钱币赢光;冒用他人借记卡在ATM机上输入正确的密码取钱的,均不认定为盗窃罪。

2.“机器可以被骗”

持“机器可以被骗”的论者认为,尽管目前的智能机器智能化程度较低,功能也较为有限,但智能机器具有简单的意识,能够进行判断。“机器不能被骗”理论不当地扩张了盗窃罪的处罚范围,而缩小了诈骗罪的处罚范围,鉴于盗窃罪的处罚较诈骗罪重,因此盗窃罪之犯罪圈扩大违背了刑法的谦抑性原则。随着人工智能的出现和广泛应用,大陆法系国家在立法上逐步开始承认机器作为被骗对象的可行性,如德国《刑法典》第265a条将“意图免除费用之给付,骗取自动设备或公共通讯网络之给付”行为纳入“骗取给付罪”(Erschleichen von Leistungen)的范畴,间接地肯定了机器可以被骗。我国最高人民法院刑二庭撰文指出,拾得借记卡到银行柜台、自动提款机取款的,实质上是采取欺骗手段,冒用银行卡实际所有人的名义,使银行产生错误认识并支付款项,完全符合诈骗罪“虚构事实、隐瞒真相的手段,使他人陷入错误认识从而自愿交付财物”之特征。

在刑事司法中,最高人民检察院也是间接地认可“机器能够被骗”的立场。根据2008年《最高人民检察院关于拾得他人信用卡并在自动柜员机(ATM机)上使用的行为如何定性问题的批复》,该行为按照信用卡诈骗罪处理。我国司法实践中也不乏支持机器能够成为被欺骗对象的判例,例如在“张×信用卡诈骗案”中,法官认为,冒用他人信用卡并在自动柜员机(ATM机)上使用的行为符合信用卡诈骗罪的行为类型(山西省安泽县人民法院(2016)晋1026刑初16号刑事判决书)。在“邓玮铭盗窃案”中,法院认为,利用失灵的网络第三方支付平台获取游戏点数构成盗窃罪,法官在评析意见中进一步指出,如果人工智能及其操作系统和硬件(设施)处于正常状态,应当看成是其管理者意志的体现,可以在诈骗案件中成为被欺骗的对象。

3.分歧与反思

上述关于“机器能否被骗”论辩的核心分歧在于:机器是否具有意识或认知能力?按照通说观点,成立诈骗罪属于交付型财产犯罪,不仅要求被骗者客观上具有处分行为,还要求主观上具有处分意识,即被骗者有意识地交付财产。诈骗罪与盗窃罪的核心区别在于,前者是基于被骗者有瑕疵的认识处分财产,而后者是完全违背他人的意志取得财产。在诈骗罪“处分意识必要说”的前提下,无论是处分意识严格论者还是处分意思缓和论者,均要求对所处分的财物具有基本的认识,即在认识到自己行为社会意义的基础上转移财物的占有。因此,对于完全缺乏意思能力的幼儿、严重精神病患者,鉴于其无法判断自己行为性质和后果,“骗取”其财物的,构成盗窃罪。据此,机器更不能成为诈骗罪的被骗对象,因为机器不存在意识乃至认识错误。可见,机器是否具有意识、能否陷入认识错误并基于错误认识而处分财产,则成为“机器能否被骗”争议论辩之前置性问题。

三、人工智能之“机器意识”何以可能

涉人工智能的财产犯罪中,既包括单纯为扩展和延伸财产之交易形式、替代传统的人对人交易模式的“弱人工智能”机器,如ATM柜员机等,也包括未来可能出现的能够产生自我意识的“强人工智能”(类人人工智能)或“超人工智能”。在这一背景下,探讨“机器能否被骗”这一命题必须面对且无法回避的前提性问题是:所谓“强人工智能”或“超人工智能”之“机器意识”能否实现?故此处笔者以“举重以明轻”的论证逻辑,通过探讨较ATM等普通机器更为高级的人工智能“机器意识”的存在性,来辩驳“机器被骗”之法理命题。

1.机器意识能否实现

在事实层面上探讨“机器能否被骗”问题,其核心争论在于机器是否具有意识或认知能力。近年来,关于机器实现“机器意识”(Machine Consciousness)或“人工意识”(Artificial Consciousness)的研究在技术上不断取得突破性进展。有学者认为,在强人工智能时代,人工智能产品可以产生自主意识和自我意志,智能机器人可以在设计和编制的程序范围外独立实施行为。关于人工智能认知状态的理论化标准,有部分学者提出,将表达力、想象力、注意力、意志力和情感五项特征作为判断机器是否具有意识的依据。现代脑科学与人工智能的主流观点认为,机器意识的实现是依靠机器自身来达到包括思维、计算能力、语言能力、想象能力、情感能力与自我反思能力等脑智特征的实现。本文认为,法学视域下的“机器意识”内涵应当与上述基础科学领域的“机器意识”结论寻求最大通约性,避免陷入法律与科学技术双重概念范畴分歧的泥潭。据此,应当按照智能机器本身是否能够独立于机器之程序设计者作出意思表示为标准,判断机器意识的存在与否:如果智能机器所实施的行为以自身意志为转移,具有相对独立性或自觉性,便可以视为具备“机器意识”。相反,如果机器只是按照预先设定的程序行事,那么便不符合“机器意识”的最低标准。人工智能是否具有“机器意识”?机器的智能化能否产生类似于自然人的意识?首先,意识是人脑特有的机能,是人脑对客观事物的主观反映。人类的神经生物系统是产生意识的特殊系统。迄今为止科学研究尚未发现生物神经系统之外的能产生意识的存在物。意识是大脑的产物,是大脑的神经元结构的功能,属于生物特有的现象,因此,机器无法产生或实现意识。其次,机器只能通过预先设定的程序来运行。美国Haikonen教授撰文称,当前的人工智能以预先编程的算法为基础,只能遵循预先设定的程序运行,而机器和程序本身并不能理解其所执行的事项。例如,即便机器能够做到瞬间计算出天文数字的加减乘除、海量词汇的存储记忆,然而由于机器受“无自主意识”的内在局限,其无法真正理解这些“数字”“符号”“词汇”所代表的意义。最后,从技术层面而言,目前的脑科学研究结论仍处于必须通过神经系统才能实现意识阶段,即以形式化计算为基础的人工智能无法充分地模拟以“生物算法”为基础的人的意识。当前的实现机器意识的尝试均是通过神经网络或符号编程,而无论是神经网络,抑或是传统的符号编程,均无法通过计算术语实现真正的意识模型。人脑约由1012个神经元组成,而每个神经元都有大约103个突触,人的意识正是建立在这些数量巨大的且非线性组合的复杂神经细胞基础上,而目前的科技水平还远远未达到通过计算机来模拟的硬件条件。综上,机器意识在理论上的可能性和技术上的可行性均存有疑问。

2.机器意识是否具有可判定性:机器意识的解释鸿沟

塞斯(A.Seth)将智能机器的意识划分为强人工智能意识(Strong Artificial Consciousness)和弱人工智能意识(Weak Artificial Consciousness),弱人工智能意识体现在机器外部行为的交互性,能够实现符合预设程序的输入和输出,并不要求机器达到真正的意识;而强人工智能意识接近于人类的意识,即具有主体知觉意义上的意识能力。因此,国内有学者将弱人工智能意识抽象概括为“脑智外现”,即以行为主义和功能主义作为判定标准;强人工智能意识对应为“觉知内显”。目前的人工智能研究以及智能机器应用仍局限于弱人工智能意识阶段,即行为主义和功能主义仅仅是作为判定弱人工智能意识的标准。然而,以行为主义和功能主义作为判定机器意识的标准饱受许多学者的诟病。美国哲学家塞尔(J.R.Searle)认为,即使机器在外在表现上使用中文与人类对答如流,但实际上其并没有理解中文的真正内在含义。这引发了关于机器意识的判定与检验问题:从意识的感知主体上看,第三人难以从外部直观地觉知到某一特定的机器是否具有意识。作为观测者的人类如何能够从外部觉知机器的思维?“物理的神经网络”与“心灵的意识现象”之间存在着难以逾越的解释鸿沟(Explanatory Gap)。通过第三人称视角无法判定或验证机器这一“意识主体”是否存在意识,这种“解释鸿沟”导致“机器能否被骗”的命题走向困境,毋宁将“机器能否被骗”的事实判断命题转移为“机器是否应该具有意识”的价值判断命题。

四、人工智能的可能发展形态与应然法律定位

1.人工智能的可能发展形态

即使人工智能的“意识”实现存在上述难以克服的困难,但是随着脑神经科学和人工智能的迅猛发展,机器“意识”的产生在理论上也并非不可能事件。陈忠林教授认为,关于人工智能的未来发展形态,理论上存在以下3种可能性路径:第一,将智能机器定位为服务人类发展的“工具”,排除其拥有独立于人之“意识”,例如借助人工智能机器人,辅助人类进行月球开发;第二,将智能机器定位为与自然人地位平等的智能形态,即允许其发展相对独立于人的认知、控制能力;第三,放开对人工智能机器的限制,任其自我发展。可以预见的是,在后两种人工智能的发展形态下,智能机器将能够独立于自然人的意识与意志,在机器自主意识和意志的支配下独立实施“行为”,甚至是严重危害社会的行为。也许那时我们探讨的问题便不是“机器能否被骗”的问题,而是“机器能否诈骗”的问题。

与上述3种发展形态相对应的是人工智能在法律上的3种不同定位选择:第一,将人工智能定位为法律的客体;第二,定位为新的法律主体类型,赋予人工智能机器与人相似的法律地位,享有与自然人相当的权利和义务;第三,任人工智能的自我意识自由发展。

2.人工智能的应然法律定位

虽然在目前的“弱人工智能”阶段智能机器并不具备威胁人类生存的能力,但我们仍需要警惕未来可能出现的“强人工智能”甚至“超人工智能”对人类的挑战。当人工智能发展达到强人工智能的技术奇点(technological singularity)时,人工智能机器便产生独立的意识和意志,人类将失去规制和控制超级机器人群体的能力。届时人工智能机器将呈指数型爆炸速度自我发展,并在很短的时间内超过人类水平。同时由于生物学意义上的限制,人类再无法赶上智能机器的发展速度。正如物理学家史蒂芬·霍金对人工智能无限制发展的隐忧,“人类由于受到缓慢的生物进化的限制,无法与机器竞争,并会被取代,人工智能的全面发展将宣告人类的灭亡”,“除非人工智能系统能够按照人类的意志工作。”2017年7月,国务院印发《新一代人工智能发展规划》,提出制定促进人工智能发展的法律法规和伦理规范,建立伦理道德多层次判断结构及人机协作的伦理框架。因此,在鼓励发展人工智能的同时,必须从前瞻性地视角对未来人工智能可能带来的风险和挑战予以重视,确保人工智能规范、有序、可持续发展。

或许有学者会为人工智能的自我意识做辩护,认为限制人工智能的自我意识阻碍人工智能技术的应用与进步。从意识的角度反思人工智能:意识是否是智能的必要条件?如果智能不依赖于意识,那么这种顾虑和担忧显然是多余的。人工智能的哲学问题核心在于人工智能意识问题,应警惕“人工意识取代人类意识”。追求智能并不意味着要求以意识为条件,相反,人工意识之危险性不在其能力高低,而在于其意识有无。人类能够控制任何不具备自我意识的机器,却难以控制自我意识程度远低于人类的生物。

有鉴于此,在人工智能发展的初级阶段,我们需要思考人类与人工智能机器未来在宇宙中的地位问题。本文认为,应当将人工智能定位为法律的客体,作为辅助人类发展的“工具”,以最大限度提高人工智能社会效益为目标;同时,排除其拥有独立于人之“意识”,防止人工智能具备独立于人的自我意识和能力。否则,一旦人工智能机器脱离人类意志控制,超级机器人群体将建立起新的世界秩序,人工智能有可能成为“人类命运共同体”的终结者。届时通过删除数据、修改程序、永久销毁等刑罚构想来限制、改造人工智能机器,实则属于不切实际的期待。人类唯一的理性选择是将人工智能定位为法律的客体,即服务人类发展的“工具”,排除其拥有独立于人之“意识”,以减缓人工智能发展对现有社会体系的冲击,降低人类面临的生存风险。

五、纾解“机器不能被骗”之阐释路径

1.“机器不能被骗”之坚守:建立在实然与应然基础上的前提假定

如上所述,从实然的角度出发,现代脑科学以及人工智能的研究结论表明,机器自我意识的实现尚不具备技术上的可行性,况且由于“物理的神经网络”与“心灵的意识现象”之间存在着难以逾越的解释鸿沟,以至于机器意识是否具有可判定性和可验证性存疑;从应然的价值角度来看,即便人工智能意识可以实现,然而由于人类的主体性感受、情感、需求、厌恶和欲望等意识仍然是维持人之主体性地位的保障,人工智能机器意识的产生将可能给人类社会带来不可预测的风险。因此,应当将人工智能机器定位为法律的客体,作为辅助人类发展的“工具”,排除其拥有独立于人之意识。概言之,既然机器意识之实现与验证于目前而言无法证成,其将来实现之可能性也无法证伪,它毋宁是一个从人类理性出发,降低人类未来生存风险所必须遵循的假定。

若坚持“机器不能被骗”,那么便不当地扩大了盗窃罪的成立范围,违背罪责相适应原则;反之,如果承认“机器可以被骗”或者“机器之管理者被骗”,便可以发挥“处分行为”要素此罪与彼罪之区分机能,即判断行为人的行为是违反被害人意思而取得财物的盗窃罪,还是属于基于被害人意思而取得财物的诈骗罪。从实定法的角度看,我国《刑法》第196条将以非法占有为目的,冒用他人信用卡的方式列为信用卡诈骗罪的四种法定行为类型之一。然而,“机器不能被骗”作为建立在应然和实然基础上的前提预设,唯一合理路径是在解释学上论证“机器之管理者被骗”。笔者认为,通过合理地论证“机器之管理者被骗”并对其成立的前提条件予以限定,阐释刑法规范背后的正当性依据。

2.“人机关系”之机器管理者视角:机器管理者被骗

传统刑法理论上认为,成立典型的诈骗罪(排除三角诈骗的情形)要求被骗的对象与处分财产的人必须是同一人。“机器不能被骗”理论,仅仅是强调作为机器本身不能陷入认识错误,基于受骗而交付财物,但并不意味着机器背后的管理者不能成为诈骗罪的对象。据此,在“机器不能被骗”的前提假定下,唯一的解释路径是机器之管理者同时作为被骗的对象与处分财物的人。

管理者为了提高交易行为效率、降低经营成本,采取事先设定交易程序的格式化形式,只要行为人满足机器管理者预设的程序(同意条件),那么机器代为转移财物行为便可推定为基于机器之管理者(被害人)意志所实施的事实“处分行为”,至于这一处分行为是否与机器之管理者事后主观上的真实意志一致在所不问。例如,行为人冒用他人的信用卡,在ATM机上输入正确的密码后取钱的,该持卡者就会被推定为是有取钱权限的;如果行为人不满足机器管理者预设的程序(同意条件),违反机器之管理者的意思取得财产,这种情形下应当认定为盗窃罪。这种解释结论也为许霆案的定罪结果提供了合理性根据。

从人机关系上看,在设计智能机器程序时,目的即让智能机器代表自然人执行特定的行为。就智能机器而言,其完全依据程序语言的指令,所做出的反馈性行为应当视为“机器管理者的意思和表达”。按照上文提及的“预设的同意”理论,所谓的“机器被骗”,实际上是机器背后的管理者被骗。当ATM机器故障时,行为人利用机器的故障取得财产,则属于违反机器管理者的意思取得财产的情形,与机器管理者预设的同意条件无关,应直接认定为盗窃罪。最高人民检察院2017年发布的第38号指导性案例“董亮等四人诈骗案”,行为人以非法占有为目的,在网约车平台上采用自我交易方式,虚构提供服务事实,使网约车公司误认为是符合公司补贴规则的订单,骗取网约车平台垫付车费及订单补贴。法院认为,其符合诈骗罪的本质特征,是一种新型诈骗罪的表现形式。换言之,在虚构事实“欺骗”网络平台的案件中,只要符合网络平台预设的支付条件,被骗的是网络平台管理人而非网络平台本身。

3.“人机关系”之机器视角:机器处于“占有辅助者”地位

既然机器之管理者同时作为被骗的对象与处分财物的人,那么机器在法律地位上地位及其与机器管理者之间的法律关系是什么?笔者认为,可以借鉴德国的占有辅助者制度,即下位者遵从上位者的指示对财物进行辅助性占有,系上位者的持有工具。虽然下位者直接占有财物,但是按照社会一般观念,上位者并没有丧失对其财物的控制和占有,下位者属于从属地位,不具有独立性。经占有人同意,占有辅助者可以代为转移财物的占有。值得注意的是,此处“代为转移财物的占有”并非机器的“处分行为”,而是ATM取款机基于其管理者银行的处分意思,代其履行转移现金这一“事实行为”,而并非“法律行为”。因为ATM取款机的转移现金行为欠缺交付意思,对转移财产占有或财产性利益及其行为后果缺乏认识,不属于“交付行为”。因此,盗窃信用卡对机器使用的情形,被骗人和受害人均是ATM机之管理者——银行,行为人、机器、受害人之间也并非三角诈骗的关系。在人机对话中,机器处于工具性从属地位,通过事先内置特定的指令程序以实现机器管理者的意志,在法律地位上扮演“占有辅助者”的角色。

如上所述,本文将包括强人工智能在内的机器定位为法律的客体,作为辅助人类发展的“工具”,受人类的意志支配控制,排除其拥有独立于人之意识。因此,机器作为财产的占有辅助者,客观上按照机器管理者预设程序的意志和指示实现对财产的实际占有与管领,不能违背上位占有者之指示。尽管德国传统的占有辅助者均是自然人,并未涉及自然人之外的机器,但承认占有辅助者从自然人向机器延伸并不会对现行法体系造成冲击,也不会引发特殊类型案件处理的结论分歧,只要占有辅助者依照上位者的指示框架内运行即可。

4.“人机关系”之行为人视角:欺骗行为与机器预设同意范围

在机器管理者“预设的同意”前提下,行为人表面上是对机器实施诈骗行为,实际上是机器背后的管理者被骗,即管理者产生认识错误,并在错误认识的支配下授权机器交付财产。以ATM机为例,行为人未经持卡人同意或者授权,以非法占有为目的,擅自以持卡人的名义使用信用卡,本质上属于冒充他人身份的诈骗行为。行为人这一行为掩盖其不是信用卡所有人的事实,致使机器管理者产生误认为行为人为有权限的持卡人之错误认识,并基于错误认识而主动交付财物的行为,正是诈骗罪典型的行为类型。至于取款人是否为信用卡之真实所有人并不在自动取款机程序运行的审核范围之内,只要行为人输入正确的密码,即推定为有权限取款之人。

在具体场合中行为性质的认定应当结合行为人的行为方式和机器程序所预设的内容进行考量。一方面,就行为方式而言,针对智能机器采取物理破坏、利用机器故障或管理漏洞等手段取得财物的,应当认定为盗窃罪;而通过冒用他人身份或使用虚假的信息,利用智能机器判断上的失误获取财物的,则符合诈骗罪的行为特征。另一方面,就机器程序所预设的内容而言,如果行为人取走财物的行为实质上并非基于管理者的意思瑕疵处分财物,而是违背管理者之意愿,突破了管理者事先预设的同意条件范畴,其行为不符合诈骗罪的行为构造,应当评价为盗窃罪。例如,行为人使用诈术骗过门卫机器人,入户实施盗窃行为的,应当评价为盗窃罪,或者商场中顾客将高档衣服的标签撕掉并穿在身上,伪装成自己的衣服,通过智能机器门闸逃离商场的情形,只能认定为利用诈术的盗窃。因为按照“预设的同意”理论,门卫机器人或智能机器门闸所预设的功能仅限于“开启或关闭”程序命令,并不包括“交付财物”这一事项。

六、结语与展望

人工智能的高速发展给人类社会发展带来新的机遇与动力,尤其在大数据、云计算乃至机器无监督学习等方面取得了显著进步,但也带来诸多的挑战。关于人工智能“机器意识”的研究有必要区分两个不同面向的问题:人工智能之“机器意识”何以可能?以及人工智能之“机器意识”是否必要?前者侧重于以现代脑科学、人工智能等基础学科研究结论为导向的事实判断,后者侧重于以伦理学、法学等人文科学为取向的价值判断。本文认为,既然机器意识之实现与验证于目前而言无法证成,其将来实现之可能性也无法证伪,则毋宁将“机器不能被骗”基于人类尊严以及人类理性的价值考量,作为降低人类未来生存风险所必须遵循的前提假定。要审视科技可能带来非理性的后果,以及如何通过法治降低科技发展可能带来的风险与非理性,防范科技对人类文明、尊严与未来的威胁。立足于“人工智能+法律”的交叉学科研究,应当将人工智能定位为“工具”,防止人工智能发展独立于人的自我意识和能力。未来可行的路径应当是考虑如何通过干预人工智能机器背后主体的行为,具体包括人工智能机器设计者、制造商、使用者以及监督者等主体因故意或过失而导致的具体社会危害性的行为,来防范人工智能技术所带来的风险与隐患。让机器的归机器,让人类的归人类,这才是人类发展人工智能的根本意义和必由之路。

相关阅读

推荐书目

微信号 : DigitalLaw_ECUPL

探寻数字法治逻辑

展望数字正义图景

数字法治战略合作伙伴:理财魔方

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存