无人机作战的三大伦理困境
来源:安全观公众号,原文刊载于《装备学院学报》2016年第3期,作者:张煌、冷妹、古丽娜
回顾军事技术史,战争需求与伦理规约是影响武器装备演进的两个重要因素,前者的牵引作用,产生规模庞大的军事工业体系;后者的束缚限制,促成全球性的军备控制与裁军行动。伴随人类战争形态由机械化转向信息化,战争对于武器的需求,也从追求最大化的释放能量,转变为追求最精准的操控能量,由此引发信息战是否逐渐“慈化”的道德争议。“9·11”以来,各类无人作战平台日益成为美军反恐战争的主角。作为信息化作战手段最新、最典型的代表,美军无人机作战具备对己的“零伤亡”及对敌的“定点清除”打击等特征,给正义战争理论体系带来新的冲击,推动国际学界对战争伦理的研究向更深层面、更广维度拓展。就国内学界而言,从战略学、法学和国际政治等维度对无人机的研究已然展开,然而从伦理维度对于无人机的深入研究仍是付之阙如。本文梳理当前无人机作战存在的道德争议,并尝试对其进行有针对性的伦理规约。
一、区分困境
作为一种故老相传的观念,战争就是战斗员之间的战争,早在远古时期的战争,就形成了区分军民的朴素规约。在信息化战争出现以前,执行区分原则(The Principle of Distinction)的困境主要源于人的生理层面,人类有限的感官能力难以适应持续增长的武器打击距离。伴随信息化、无人化装备的广泛应用,借助信息科技手段可以实现战场形势的远程实时感知,在一定程度上弥补了人类视距上的局限,选择性杀伤的回归成为可能。然而,在“首发制穴”、“外科手术刀”式打击的背后,无人作战面临的区分困境从生理层面转向心理层面。
(一)虚拟环境下的区分认知错觉
关于无人机对区分原则的挑战,首先体现在遥控作战的虚拟环境给区分敌我带来的认知困境,具体体现在两个方面:一方面是虚拟环境造成的游戏心态。无人作战特殊的作战方式,给予操控人员一种特殊的疏离感,他们处于距战场万里之遥的控制中心,视听感官与真实战场相互隔绝,因此容易对眼前的镜像产生视频游戏的错觉。纽约大学教授菲利普•埃尔森指出,无人作战完全可以通过计算机屏幕和远程声频反馈来实施,因此存在以游戏心态来看待杀人的风险。一旦以游戏的心态对待战争,区分原则就难以严格执行。另一方面是情境切换带来的心理反差。不同于传统飞行员,无人机操控员每天都需在无情的杀人任务与温情的家庭生活中往复切换,这对他们的心理承受能力是一个挑战。在执行定点清除任务时,他们依靠实时监控影像锁定目标,画面中恐怖分子的生活场景可能会勾起某种熟悉感,造成工作情境与生活情境的紊乱,这进一步增加了锁定和攻击目标的难度。
认知错觉对区分原则的挑战,在深层次上反映了无人机给予战争的“非人化”烙印。与上述观点相悖,部分学者指出,无人机带来的认知困境挑战战斗员区分能力的论点是难以成立的。在Bradley Strawser看来,虚拟环境下的游戏心态完全可通过仿真技术手段来规避。无人作战模式下战斗员的区分能力不是降低而是增加。由于无人作战对于远程操控者而言毫无风险,战斗员不会焦虑不安,他们可以用更长的时间区分作战目标,因而可能做出更明智的决定。该观点从技术层面为规避认知困境提供了一种可能,却忽略了当前无人作战的现实境况,由于主要执行“定点清除”式反恐任务,操控员需要面对军民混杂、高速流动的战场环境,无人机始终以挂弹模式执行巡航任务,在发现可疑情况时临机处置地面上的“机会目标”,因此,距离战场远近与决策时间长短并无必然联系。相反,一旦战争对于其中的一方而言毫无风险,作战员以人性角度感知理解战争的能力可能会逐渐丧失,从而给予战争的道义基础根本性的冲击。
(二)特征攻击的目标选取方式
对于区分原则进一步的质疑,聚焦于无人机作战中目标选取的具体方式。奥巴马上任以来,美军更频繁地采用一种颇具争议的方式来界定攻击目标,即所谓的特征攻击(signature strikes),具体而言,就是在真实身份尚未明确的情况下,对满足某些预设恐怖分子特征的目标实施打击。特征攻击模式是在军民混杂战场环境下执行区分原则的一种尝试,其依托超视距技术推进区分方式演进的意图是毋庸置疑的,但其片面依赖特征匹配的局限性也是显而易见的。美国康奈尔大学的Sarah Kreps指出,特征攻击对于目标行为方式的偏好,并不能将其与恐怖分子的关联性等量齐观。中国南京大学的钱铖和石斌也指出特征攻击对于民族文化差异的忽视,譬如某些民族成年男性有随身携带武器的传统。在“定点清除”的反恐行动中,特征匹配的区分方式取代传统的区分方式,还引发了关于无人机“附带伤害”(collateral damage)的争议。一方面,美国政府否认无人作战的“附带伤害”,认为平民伤亡是极其罕见的,甚至在“个位数”,其目的在于强化无人作战“精确、无风险”的形象;另一方面,作为非盈利性的民间机构,英国新闻调查局(Bureau of Investigative Journalism)提出了受学界认可的数据,在2004-2014年间,无人机在巴基斯坦的405次攻击,造成死亡人数最多达959人,其中儿童204人,受伤人数最多达1,706人。美国政府将所有死伤的成年男性默认为武装分子,实质上是对区分原则和附带伤害概念的扭曲。
(三)技治主义的主导思想
美军无人机作战引发新的区分困境,从表面上显现为虚拟作战环境下的认知困境,在深层面则根源于识别判定目标过程中“非人化”的技治主义倾向。在军民混杂、高速流动的反恐战场,依靠服饰、武器等传统的标识性特征,难以确认恐怖分子的身份。有鉴于此,无人机作战的目标判定,更多地借助技术手段,特别是运用大数据技术和分析工具,提取潜在目标行为的时空规律性,分析不同行为间的互动关系,揭示其与恐怖分子之间的内在关联性,运用分析算法对其身份和实施恐怖行动的概率进行评估。
信息技术主导的区分方法虽然在一定程度上提升了辨识目标的效率,但是也导致了美军在无人机反恐上的技治主义倾向,片面强调技术手段和数量方法进而造成诸多问题:一是对杀人的麻木心态。技治主义者会陷入机械决定论或因果一义论的思维模式,一方面把世界视作一架庞大的机器,另一方面轻视甚至无视人与社会之间问题的多变性与复杂性,造成重物不重人、见物不见人的意识倾向,对于剥夺他人生命的行为产生麻木心态。二是对数字的过度痴迷,致使无人机反恐的持续扩大化和费效比低下。受技治主义思想影响,人动辄被数字化,击毙目标的数字与反恐效率等量齐观,如此一来,在恐怖分子头目数量有限的情况下,美军频繁使用价值百万元的地狱火导弹攻击最底层的恐怖组织成员。三是以技术数据绑架舆论。由于目标识别与区分依赖精细的数据处理和技术分析,因此,无人机作战相关数据的控制权掌握在技术专家和管理人员手中,可能造成民众难以了解无人作战“附带伤害”的真实情况。美军官方公布数据与民间调查数据之间的巨大差距,说明存在政府、军方和技术专家绑架舆论的可能性。
鉴于技治主义主导的区分方式存在上述弊端,在继续使用必要的技术区分手段的同时,还必须要重视感官的直接体验。个人的感官判断虽然具有一定程度的主观性,但同样是区分军民不可或缺的重要凭据。美国学者马克斯•布特指出:“美军士兵无法迅速分辨出一个人是农民还是战士,但阿富汗当地人能。”阿富汗当地人对于塔利班武装分子的判别能力,源自于自身的阅历、经验和主观感受,这是信息时代最先进的识别技术无法具备的。在目标区分上实现技术与感官的结合,就必须削弱当前的技术主义倾向,打破区分权集中在军方和技术专家手中的现状,实现权力的分散化,将土生土长的当地民众作为参与者,介入目标搜索、识别和判断的全部过程,充分尊重其感官在目标识别中的参考价值,这也许是摆脱无人作战区分困境的可行路径。
二、控制困境
作为对区分原则的必要补充,相称原则(The Principle of Proportionality)在交战正义的伦理规约中同样占据举足轻重的地位。依据相称的理念,战争的道德成本应当与预期的道德收益相匹配。换言之,军事目标的预期价值与军事打击的潜在伤害之间必须维系一种平衡。在围绕相称原则的相关争议中,一个突出的问题在于无人机是否是一种可控的作战手段?相称原则要求避免超出预期军事目的所需的过度伤害,一个前提条件是作战手段的运用必须可控。在实现可控性方面,无人机在反恐作战中的应用同样面临诸多挑战。
(一) 不对称优势下的滥用
无人机在反恐战场的应用,本来是作为可控作战手段的一项典型范例。凭借在战场监视、侦察传感、精确锁定以及续航能力方面的优越性,无人机成为实施定点清除任务的最优选择。然而,一种优势过于明显的手段往往招致过度的依赖。事实上,相称原则成立的基础,除却道义上的因素,根源还在于交战双方军事力量对抗的均衡性。一方控制作战的手段和方式,是为了避免另一方的过激反应导致战争的升级。无人化战争的不对称打击,极大地挑战了维系相称原则的均衡性。情况正如澳大利亚麦考瑞大学的Jai C. Galliott所述,技术上的极端不均衡,导致技术后进国能够给予技术先进国的伤害变得微不足道,相称性原则的执行也就变得难以为继。在当下的巴基斯坦、也门等地,由无人机实施的“机器VS人”的不对称打击,已经使战争变得毫无风险,均衡性的丧失必然导致无人机的滥用,进而挑战其作为信息化作战手段的可控性。
目前,无人机不对称打击优势造成的滥用主要体现在两个方面:一是战术层面。作为远程精确打击手段的“零风险”与绝对优势,使得美军在无人机的战术运用中不再谨慎小心。斯坦福国际人权中心的调查报告指出,美军无人机的打击范围日益向葬礼、聚会以及社区会议等人口密集地域拓展;美国新闻周刊记者Tara McKelvey也撰文批判名为‘double-tap’的无人机战法,这种对同一作战地域实施相对连续的两次打击以确保目标死亡的做法,被认为会加剧人道主义救助者和其他无辜者的伤亡。把一种精确打击手段转变为饱和攻击的手段来使用,无人机在战术层面的滥用可窥一斑。二是战略层面。过于成功的手段会导致目的的迷失,无人机作战进一步强化了美国等北约国家的不对称打击优势,降低了发动战争的成本和门槛,使战争变为一架“零风险”的机器,进而可以更频繁地开启战争和肆意地滥用武力。
(二)以精确性替代可控性
无人机作战对于可控性的挑战还体现在可控标准的界定。对于用何种标准来衡量军事目标价值与军事打击伤害之间成比例,以及如何界定作战手段是否可控?战争伦理学界并没有一个公认的标准。目前,部分西方学者将“规避无效伤害”(avoidanceof gratuitous harm)作为度量可控性的标准。其实质就是将可控性等同于精准性,藉此来验证无人机作战符合交战正义的规约,这一标准与西方主流媒体对无人机精确、高效打击能力的宣传相契合,但其在对可控性理解上的局限性也是显而易见的。
即便不考虑美国官方关于无人打击数据的可信度,将精确性作为衡量控制能力的做法仍然存在诸多弊端。一是忽视了打击目标的重要程度。据斯坦福国际人权中心的统计数据显示,在美军无人机击毙的目标中,担任恐怖组织头目的高价值目标不到2%,超过余98%的人是所谓的低价值目标,也即是扮演打杂跑腿角色的底层恐怖分子。对于不同价值目标实施无差别攻击,一视同仁地动用造价昂贵的精确制导炸弹,从一个侧面反映了标准的缺失。二是片面强调当下的可控性。当前西方媒体热衷于炒作无人机击毙恐怖组织头目的时间,刻意强调无人作战与当下的可控性相互契合,但这仅是抑制恐怖势力蔓延的治标之策,从消除恐怖主义生长根源的角度来看,目前阿富汗、索马里、也门等地的恐怖组织的肆虐,表明无人机主导的“定点清除”行动是否能够实现长效的可控性,尚存在诸多不确定因素。
事实上,“9•11”之后,美国在全球展开的反恐攻势频繁陷入“愈反愈恐”的尴尬境遇,与其对长效可控性的忽视密切关联。当下可控性与长效可控性之间的矛盾与冲突,也是造成美军反恐战略性失误的深层次原因。鉴于“以暴制暴”无法从源头上清除产生恐怖主义的根源,改变刻意追求反恐杀伤效率的做法,适度减少无人机反恐的使用频率,审慎对待潜在的打击目标,注重无人作战的长效可控性,才是缓解当地民众的仇恨情绪和动荡局势,在长远时间内应对恐怖主义泛滥的治本之策。
三、责任困境
责任分配是对正义论的重要检验,在沃尔泽看来:“只要我们准确地指出责任者,或者至少我们的责任分配和道德判断符合战争的实际经验、对战争的所有痛苦保持敏感,就会极大地增强正义论的力量。”在经典正义战争论的理论体系中,责任分配问题聚焦于君主、官员、军人等特定人群。伴随无人机系统智能化水平和自治能力的不断提高,它由原来纯粹的作战手段转变为逐渐具备战争主体部分功能。无人作战条件下人机集成共同扮演主体角色,冲击了正义战争理论对于责任主体与责任分配的固有认识,引发了一系列的争议。
(一)责任主体争议
智能化无人机能否成为更为人道的责任主体?伴随人工智能技术的不断增长,以“捕食者”为代表的部分无人作战平台已初步具备了智能化的某些特征,由此引发了关于战争责任主体的新的争议。即相对于传统战争中人类作为唯一的责任主体,高度智能化的无人机能否更好地承担战争责任,进而将未来战争引向更为人道的方向?对于这一问题,无人技术的支持者采取了乐观的态度。美国乔治亚理工学院的Ronald C. Arkin指出,在确保交战正义性上,较之有人作战平台,智能化机器人具有以下六个优势:1. 无需考虑自身安全;2.具备超人的战场观察能力;3. 不受主观情绪左右;4. 不受习惯模式影响;5. 更快的信息处理速度;6. 独立、客观地监测战场道德行为。基于以上优势,Arkin认为在执行人道原则方面,智能化无人作战平台会比人类表现得更好。然而,一旦无人机取代人类成为未来战争的决策者,人道原则的执行可能面临诸多挑战:一是鉴于未来人工智能发展前景的不确定性,无人机做出符合人道规约的作战决策尚面临难以克服的技术瓶颈。二是无人机自治系统存在不稳定性和巨大的风险性。控制系统故障、电子信号干扰、黑客网络攻击以及其他战场上可能发生的意外情况,都会影响其执行符合人道主义规约的决策,甚至造成战场杀人机器的失控。三是无人机取代人类进行作战决策,意味着它由战争工具转变为战争主体,而人道主义原则作为约束人类行为的伦理规约,难以适用于一场机器人相互厮杀的战争。
(二)责任分配困境
人与无人机之间如何进行责任分配?无人机对于责任分配的挑战,首先体现为主体多元化加大了责任追究的难度。在常规的战争模式下,战争机器由权责分明的军事部门和政府机构来推动,因此,对于战犯的指认与辨识在操作层面并非是难事。正如沃尔泽所言:“(在战争中)军人和政治家不得不作出选择,有时是道德的选择。既然有人选择,就必定可能把他们指出来加以称赞和谴责。如果有可以辨认的战争罪行,就必定有可以辨认的罪犯。”然而,对于因无人作战引发的非正义军事行为,其责任的追究可能涉及操控者、军火商、程序员、采购官、战地指挥官、相关维护人员乃至无人机本身,涵盖其研制、生产、装备与应用的整个过程,其追责难度较常规战争进一步提升。此外,鉴于无人机与操控员之间的匹配问题,美军无人作战中心首席科学家指出:“自然的人的能力开始与科技提供或需要的巨大的数据量,处理能力,决策速度不相称。”为了提升人机结合的效率,美军近年来开始尝试利用脑机接口技术,将大脑信号输出直接用于控制外部武器系统,其中就包括无人作战系统。未来,实现人——机一体化的半机械人(cyborgs)可能成为无人机的实际操控者,一旦人脑与无人机的自治系统并驾齐驱,战争责任的分配必将陷入更大的困境。此外,无人机导致的责任分配困境,还体现在如何应对“责任转嫁”的问题,利用人机的高度一体化,军方和政府可以把人为的责任转嫁给无人机,以逃避战争罪责。
(三)武德精神的沦丧
无人机成为战争的主体是否会造成军人责任感与武德精神的沦丧?军人是准备战争和从事战争的武装集团,以自我牺牲精神承担战争的绝大部分危险是军人固有的责任。正如沃尔泽所说的:“战争规约要求军人自己接受危险而不能伤害平民。……重要的是军人不能以牺牲无辜者为代价获得自己的安全。”从道德意义上来说,军人存在的价值就在于替代平民承担战争风险。然而,各类智能化无人作战平台让军人远离战场,进而对经典定义下的军人责任提出了挑战。美军将无人机作为“定点清除”作战的主力,本身即有转嫁风险与责任的考虑。在军民混杂和宗教、民族与社会文化环境迥异的海外战场,美军面临消灭敌军、保全自我以及区分军民的三元悖论(The Impossible Trinity),同时满足前两项的代价即是放弃最后一项,从而将平民置于比军人更加危险的境地。一旦战争进入后英雄主义时代,军人将不再被期待具备过人的勇气或承担更多的风险,其作为战争道德责任主体的意义逐渐消弭,这也意味着传统意义上武德精神的终结。
四、结束语
无人机作战所暴露的三大伦理困境,凸显其在道德规约层面的失范状况。围绕无人机作战构建伦理规范,必须把自律与他律两种途径相互结合。就自律方面而言,必须明确一种围绕远程遥控行为的前瞻性责任认知,无人机的操控者需要认识无人作战的残酷本质,深刻理解虚拟作战环境背后的真实后果,对战争行为产生强烈的责任感以及对正义性的自我评价,从而在识别、锁定和清除目标的过程中做出趋善避恶的伦理抉择。就他律方面而言,为达成关于无人作战的相关伦理共识,可以考虑成立一个由各方面专家组成的伦理委员会,成员包括伦理学家、法律顾问、武器专家、作战计划的制定者以及无人机飞行员,以民主对话的形式讨论无人机作战相关的道德冲击,引导相关责任者形成共同的责任价值取向和善恶判断。同时,对无人机作战中出现的平民伤亡、民用设施损毁以及无人机系统失控等问题进行责任确认和追究,对不道德的行为给予严厉惩治,增大责任失范者和责任转嫁者的机会成本,强制行为主体恪守无人作战的伦理底线和正义标准。