【科技评论】世界如何为机器人战争做准备?
本文转自杨静lillian(微信公众号:lillian_yang_1111),感谢杨静的分享,推荐关注。
【静点评】昨天我们看到在2015年DARPA机器人挑战赛中的优胜者和失败者(请点击查看【科技动态】DARPA机器人挑战赛冠军诞生),不少人可能认为以目前机器人的水平谈论其统治人类或制造大规模杀伤相当荒谬。但实际上已经有一些学者将自主战场机器人定位为人类战争的第三次革命:而前两次是火药和核武器,声称世界应当为机器人战争做准备。
丹尼丝.加西亚教授在美国《外交》杂志撰文称,这个时代的人们发现自己生逢两个武器时代:前有核武器,后有逐渐显现的致命性自主武器。最近,联合国召开了两次会议,探讨核武器库与未来武器方面的紧迫性问题:一个是5月份闭幕的《不扩散核武器条约》缔约国2015年审议大会,另一个是4月份在日内瓦召开的致命性自主武器系统专家会议:前者着重探讨核战争的风险,后者着重探讨致命性自主军用机器人技术日益增长的风险。
今天推荐大家阅读两篇文章,一篇是《中国科学报》今日转载《自然》杂志的人工智能专家评论,另一篇是《参考消息》今日转载《外交》杂志的文章《世界应当如何为机器人战争作准备》。
当人工智能遇上伦理道德
——专家纵论智能机器社会的风险与解决方案
【作者 张章 来源 6月9日《中国科学报》】
美国宇航局的机器宇航员2 号 图片来源:Joseph Bibby
在近日发表于《自然》杂志上的一篇评论文章中,4位计算机领域的研究领军者分享了他们对该领域的思考。
目前,美国国防部高级研究计划局(DARPA)正在推进两个项目:“快速轻型机器人”(FLA)和“敌对环境下联合作战”(CODE),前者计划设计出一款旋翼机,能够在没有外界操控的情况下以极高的速度在城市环境或建筑物内部敏捷地飞行;而后者的目标是开发无人飞行器,将能够在完全与总部失去联络的情况下完成一整套攻击程序——搜索目标、锁定、跟踪、攻击、评估。它们将有可能促成“杀手机器人”的研发。
在近日发表于《自然》杂志上的一篇评论文章中,4位相关领域的研究领军者分享了他们对智能机器社会风险的担忧和解决方案。
美国加州大学伯克利分校的计算机科学教授Stuart Russell认为,这些武器所具备的敏捷性和致命性将让人类陷入毫无招架之力的境地,“这不是我们所梦想的未来场景”。而来自英国布里斯托尔大学的机器人专家Sabine Hauert则表示,公众无须对人工智能技术的发展感到担忧。
Stuart Russel(美国加州大学伯克利分校计算机科学教授)
人工智能(AI)和机器人领域的专家面临一个重要的伦理决策:必须要决定他们是支持还是反对致命自主武器系统(LAWS)。此类系统能在几年而非几十年内发展为可行的。该领域的风险很高,致命自主武器系统被描述为战争的第三次革命,前两次是火药和核武器。
在几年之内,军方就可以组装带有武器的四轴飞行器和微型坦克,这些自动的飞行器和坦克不需要人类干预,自己能决定谁能活下来而谁又会死去。例如,四轴飞行器能在一座城市中找到并打击敌方战士,但不包括人类能设定目标的巡航导弹和遥远的无人驾驶飞机。
但是,国际人道法律对于此类技术没有任何具体的规定,现在也还不清楚国际社会是否会支持一个限制或禁止此类武器系统的条约。1949年签订的战争人道主义《日内瓦公约》要求任何袭击需要满足3个条件:军事必需、参与战争者和非参战者差别对待、军事目标价值及其潜在附带伤害的平衡。而当前的自动武器很难或根本无法作出这些主观判断。
作为一个人工智能专家,我曾被要求为特定常规武器公约(CCW)第三次重要会议提供专业证据。德国等许多国家迫切要求签署禁令,但美、英和以色列这3个LAWS技术领先的国家则认为这样一个条约没有必要。
LAWS通过允许机器选择杀死谁,而可能侵犯人类尊严的基本原则。在我看来,最应当关注的是这个技术发展轨迹的可能终点。我认为超过人类控制的系统将建成这一点是不可避免的。当然这些武器系统能涉及的范围和携带大型武器的能力会受到物理定律的限制。然而它们的灵活性和杀伤力将让人们毫无防御之力。这样的未来不会是人们想要的。
因此,人工智能和机器人领域的科学家及其所在的专业组织应当表明立场,正如物理学家当年对于核武器,抑或是生物学家对于在战争中使用病原体表明立场一样。应当召开学术会议进行讨论,并让伦理委员会参与进来。什么都不做就等于是表示支持继续发展和使用。
Sabine Hauert(英国布里斯托尔大学机器人学讲师)
针对机器人和人工智能的恶意炒作让一些研究人员十分愤怒,这使得他们停止与媒体或公众沟通。
但我们无法脱离社会。公众包括纳税人、政策制定者、投资者和那些利益相关者。他们在听闻一边倒的讨论后,担忧机器人会抢了他们的饭碗,害怕人工智能产生实在的威胁,并在考虑是否应制定法律控制这些仍在假设中的技术。
而我和同事会在晚宴时间向大家解释,我们并非一群恶魔,我们花费多年时间潜心研发,目的是为了开发那些能够帮助老人,改善健康,让我们的工作环境更加安全和有效率,并让我们能够探索太空和海洋的设备。
专家需要成为信息传递者。研究人员应利用社会媒体这一公共平台,诱导相关讨论变得平衡。我们能够探讨最新进展和限制因素,解开人工智能技术的神秘面纱。
人工智能和机器人领域需要思想领袖,以便与霍金等杰出评论家和Elon Musk等风险投资家建立友好的关系,并在世界经济论坛等会议上设置机构等。而且,公众参与也将有助于筹集经费。
当然,也存在不少障碍:首先,许多研究人员没有推特和博客账户;第二,时间十分有限;第三,可能需要数年时间才能建立一个社交媒体互动机制。在我看来,全世界的人工智能和机器人领域的利益相关者,应当联合一部分资金,以帮助该领域增大发言权。
Russ Altman(美国斯坦福大学生物工程、基因学、医学和计算科学教授)
人工智能在加速生物和医学领域的科学发现及改变医疗卫生方面有惊人潜力。人工智能系统有望帮助弄清若干新型数据:基因组学、蛋白质组学和新陈代谢组学等“组学”的测量值;电子病历;健康信号的数字传感器监控。
聚类分析能判断新综合征,分离那些曾被认为是相同的疾病以及统一那些根本缺陷相同的疾病。模式识别技术能将疾病与疗法相匹配。例如,我和同事正在识别对调节免疫系统的药物可能有响应的患者群体。
在协商中,内科医生可能会使用来自“虚拟群体”的患者数据——他们就好像彼此坐在一起,评估诊断、选择疗法和统计结果。他们将可能在一个此类系统中进行医疗决策,或使用基于患者数据的模拟实验预测结果。
但我有两个担忧。首先,人工智能技术将加剧目前的医疗卫生不平衡状况,除非能发现一种方式,让所有病人受益。例如,在美国,失业人员会经历各种水平的护理。只有特殊群体或能支付得起的人,才能获益于先进的诊断技术,这是不公平、不合理的。
第二,我担忧临床医生理解和解释高性能人工智能系统所得出的结果的能力。大多数卫生保健提供者不会接受一个来自决策支持系统的没有明确描述如何和为何能出现效果的复杂治疗建议。因此,研究人员需要让医生、护士、患者和其他人明白他们应该如何使用人工智能,并且如何公平地使用。
Manuela Veloso(美国卡内基·梅隆大学计算机学教授)
我们正使用自己的感觉评估世界状态,用我们的大脑思索,选择达成目标的行动,并用自己的身体执行这些行动。我的科研团队正试着建造能同样做这些的机器人,它们将拥有人造感应器、算法和制动器。
但自动机器人和人类的能力之间存在极大差别。机器人通常存在知觉、认知和行动限制。它们通常无法充分理解一个场景,认识或操纵物体,理解所有的口头或书面用语等。我认为,机器人是人类的补充物,而非替代品。但机器人需要知道何时寻求帮助以及如何表达其内部工作原理。
为了更多了解机器人和人类如何共同工作,在过去3年里,我们与4个自己研发的机器人分享了我们的实验室和建筑。这些机器人看上去有点像机械讲台。它们拥有全方位车轮,以便平稳越过障碍物;照相机和激光雷达系统,以提供深度视力;用于内部处理的计算机;用于交流的屏幕,和携带东西的篮子。
之前,我们就已经意识到现实世界对机器人的挑战。于是,我们引入了“共生自主性”的概念,以便机器人向人类和互联网寻求帮助。现在,我们实验室里的机器人和人类能彼此帮助,共同克服各自的局限性。
不过,人类与机器人能安全、有效共存,还须克服一些障碍。我们正在研究人和机器人如何更简单地通过语言和动作进行沟通。我们还在探索如何改善机器人外观,提高其与外界的互动,尤其是指示灯如何向人类揭示机器人的内在状态。
尽管我们还有很长的路要走,但我相信,如果人类和机器人能彼此帮助、相互补充,未来将是乐观的。
【本文来源:6月9日 参考消息网】美国《外交》双月刊网站6月5日发表题为《世界应当如何为机器人战争作准备》,作者是美国波士顿东北大学政治学系与国际事务项目副教授、国际控制机器人武器委员会成员丹尼丝·加西亚。
文章说,这个时代的人们发现自己生逢两个武器时代:前有核武器,后有逐渐显现的致命性自主武器。一方面,由于很多国家不履行法定责任,将库存的核武器裁减销毁,核决战的威胁仍然切实存在。另一方面,致命性自主机器人武器让人隐约看到了未来的战争—无人机作为未来自主武器前驱性技术的代表,对它的使用约束规则即便有也是寥寥无几。我们必须制定并强化覆盖武器扩散所有方面全球公认的准则规矩,以保证子孙后代免遭大规模暴力的屠戮。要制定现实可靠的危险武器、新式武器使用国际准则,各国必须为全球合作营造必要的条件。如果世界领袖们希望世界少一点暴力,就必须制定指导方针,改善当前的国际秩序。
丧失武器有效控制
最近,联合国召开了两次会议,探讨核武器库与未来武器方面的紧迫性问题:一个是5月份闭幕的《不扩散核武器条约》缔约国2015年审议大会,另一个是4月份在日内瓦召开的致命性自主武器系统专家会议。每个会议针对一个显著的全球安全威胁:前者着重探讨核战争的风险,后者着重探讨致命性自主军用机器人技术日益增长的风险。
尽管这些问题很重要,但是两个会议最终都无功而返:广岛和长崎遭受核弹袭击已经过去了70年,核扩散仍然威胁着全球安全。1968年缔结的《不扩散核武器条约》到今年已经是第47个年头了,但许多国家仍然仰仗落伍的法律体系应对这一年代久远的技术,看不到任何进一步切实裁军的迹象。与此同时,美国等国正在研究致命性机器人技术,这种技术可以在战争中提供自主援助—鉴于现有样机的能力,恐怕在不久的将来就能在战场上看到这些科研产物。考虑到无人机的扩散以及它们在美国外交政策中的地位,似乎新兴的军事学说认为自主装备是最佳的防御选项,使得华盛顿可以避免伤亡,不管误杀与民众对无人机技术的看法,把部队送上战场。换句话说,人类对战斗丧失有效控制似乎逐渐成为未来一种现实的可能。
法律滞后于新技术
维持核武器同时研发致命军用机器人是保障国家安全的一条造价高昂又危险的策略。这些技术产物有可能扩散到流氓国家或组织,更会恶化冲突,加剧暴力与犯罪,增加恐怖主义袭击的风险。要抑制这些威胁,国际社会应当从现有准则中寻找指针。例如,强大的全球准则禁止使用化学武器,新技术产品问世后,可以比照这套规则制定相关准则。例如,2014年的《武器贸易条约》根据长期人权实践与国际法对常规武器的转让进行管控。这份条约制定了很高的国际准则禁止武器转让,规定了各国维护贸易禁运的责任,使人权法得到切实落实。这套模式对现有武器很管用,但对未来的致命性机器人和其他自主作战技术来说,预防性禁令可能有助于从源头上规避高价危险技术的扩散。例如,“阻止杀手机器人运动组织”呼吁实施禁令,而不要采用先造再禁的追加性禁令做法—这样不致于白白送掉许多生命,也可以避免旷日持久的国际争论。
致命性作战技术研发与法律体系之间存在明显差距。《国际人道主义法》被迫总是跟在新武器技术后面扮演追赶者的角色,还要等若干国家对新武器完成试验后才能将这些武器视为国际法管辖的对象。至今《国际人道主义法》没有对无人机—诞生好几年的技术—进行管控,这让国际社会几乎不相信,未来它会对可能出现的自主性致命武器采取行动。
武器管控需要合作
新兴武器装备的隐秘使得国际准则建立起来尤为困难。正如政治学家玛莎·芬尼莫尔在她的书《国际社会中的国家利益》中所写的那样,“武器使用管控恰恰是各国戒备最森严的”。人们认为,安全需要隐秘与独立才能实现,因此相比其他国际问题,这是一种特殊的“野兽”。同时,常识认为,武器技术只能在国家安全不受监管或者少受监管的领域才能出现。
但是,这些看法不一定正确:国家之间可以在安全与防御领域合作,联合国行动和其他地方也有先例。实际上,各国调整了军事学说,不再部署部分武器装备,并因应国际准则的建立禁止使用部分武器。地雷、集束炸弹、激光致盲武器以及化学武器都由于国际禁令的修改而减产或者禁产,未来的武器有可能也照这样处理。
人们很容易想当然地认为,各国只会放弃它们认为不再有用的部分武器。或者只会同意裁掉自己不需要或者原本没有的武器装备,或者在损失代价较低的条件下才会同意裁撤。但是,这些理由是不够的。许多情况下的合作是因为国家安全问题与人道主义因素的结合。新式武器技术的出现会引发别的合作方法,有些是跟传统关联更紧密的,有些新合作形式是来自民间社会更广泛的投入。各国在武器管控上礼让的动机会强化国际社会的决心,佐证一种看法,即联合国能够建立有效的全球准则。
如果管理不当,核武器与未来的致命性自主技术会危及人类。如果不加管理,就会葬送文明。因此,研究如何能让高阶政治安全领域的国家安全学说更加透明,透过国际准则实现互通的表述,并在国际舞台接受国际法的监管就变得至关重要。
(本文转自杨静lillian微信公众号,原文来源:中国科学报,参考消息网)
引领科技创新发展
1
微信公众号:tech999
个人微信号:tech9999
邮箱:2669537857@qq.com
【战略前沿技术】2014-2015年历史文章目录已上线,回复“目录”即可查看,敬请关注!
【战略前沿技术】已开通原创、评论以及对原创作品的打赏功能
欢迎评论:对于文章有任何问题和看法,请移步文末进行吐槽和评论!
欢迎投稿:对于原创性作品将优先发表,并将获得读者打赏的全部!
欢迎打赏:请对原创作品随意和任性打赏,打赏将全部归作者所有!
请关注后【战略前沿技术】后,点击历史信息或回复201504查看。
2015年3月、2月、1日精华文章,请回复201503、201502、201501查看。
日期
标题
20150409
美国高端产业:定义、布局及重要性
20150410
科研必备的软件神器,果断收藏!
20150406
学者能否从科研经费中获利?
20150416
“十三五”规划思路的十大转变
20150404
科研经费见物不见人,“最大受益者”是设备商
20150408
科研岗位怎么成了“风险岗位”
20150410
颠覆未来作战的前沿技术系列——微系统技术
20150406
中国制造2025》:是什么?为什么?干什么?怎么干?
20150423
国务院:支持高校和科研院所专业技术人员在职和离岗创业
20150424
NATURE发表“科研评价十原则莱顿宣言”
请点击左下角“阅读原文”查阅历史文章,请点击右下角“评论”进行评论吐槽