【智库评论】美国海军作战军官:杀手机器人所带来的"道德问题"与"军事利益",真的如同"鱼"与"熊掌"?
很多人都认为自动化武器在不远未来的前景并不乐观
美国要么注定被那些通过完全自动化技术实现全面作战优势的敌人战胜,要么让长期以来在战斗中指导美军的人道主义和人权原则一去不复返。在某种程度上说,这两点都是对的。美国高级领导人既不能排除道德问题,也不能放弃那些与潜在对手相比而言所具备的技术优势。但是,他们应该承认,美国对自动化武器的道德判断可能会根据情况而改变。
因此,国防部领导层不应完全拒绝那些能够支持人机协作之类概念的全面性自动化技术,而是应该像几十年来我们所做的一样,考虑能够同时兼顾这两点,同时能够调节自主化程度的系统。这种系统将提高当今“人在回路”的作战能力,并且根据需要,在未来的大规模战争中发挥更大的作用。
无论计算机处理功能发展到什么样的程度,如果没有人类的监督和控制,完全自动化武器系统就会犯错。也许技术的进步能够极大程度减少错误发生的次数和频率,但错误依旧是不可避免的。这一观点不无道理;因为在一套系统中,如果其对敌方战斗人员和无辜平民进行区分的功能出现这样的错误,那么就会发生暴行。
当然,令人遗憾的是,在每次冲突中,即使由人类控制武器并做出决定,也还是会出现意外的平民伤亡事件。然后出现了这样两个问题。首先,与人类操作相比,杀伤性自动化系统犯错概率更高还是更低?第二,从本质上讲,与人类相比,计算机导致的平民伤亡是否应受到更大的指责?
关于第一个问题,虽然人工智能和机器学习可能还无法同人类一样将目标与非目标区分开来,但它与人类之间的差距正日趋缩小。与人类相比,计算机可以更快地处理输入的信息,同时根据决策标准来衡量它们,并且不会因为情绪或疲劳而导致判断效果下降。因此,技术的发展可能会让计算机比人类更快更好地做出决策。这点将不会让他们导致平民伤亡的概率高于人类控制的武器。
关于第二个问题,理性观点认为,人类和计算机导致的意外平民伤亡并没有区别。事实上,仅“自动化系统可能降低非预期伤亡”一点就能抵消任何关于“非预期伤亡事件发生次数虽然较少,但仍有发生,那么在这一问题上,人和机器间谁应承担更多责任”的疑虑。然而,人类也并非具备纯粹的理性(PDF)。在美国社会中,由于与情绪、道德信念以及可能包括对人类责任要求的相关原因,因此存在着固有的差别。有些人认为,对于同样的平民伤亡事件来说,如果凶手是一个冷冰冰、没有感情的机器而不是一个活生生、有呼吸的人,那么他们的良心将承担更大的负担。高层领导人应该承认这一点。虽然他们试图通过数据论证(无论是否为理性论证)来摆脱它,但可能会导致美国国防机构失去公众的信任。
科林·罗伯茨:无党派,兰德公司的客座军事研究员,美国海军水面作战军官。这里表达的意见仅为作者观点,不代表美国海军、国防部或美国政府的官方立场。
文章来源:
相关评论可在nationalinterest.org上查阅。
《中国电子科学研究院学报》欢迎各位专家、学者赐稿!投稿链接
电话:010-68893411
邮箱:dkyxuebao@vip.126.com