查看原文
其他

AI战争迫近,ChatGPT解除军用禁令

FunnyG GoUpSec 2024-03-26


上周末,人工智能领头羊企业OpenAI悄悄从ChatGPT使用政策中删除了禁止应用于军事用途的条款,这标志着人工智能武器化的潘多拉盒子已经打开。


值得注意的是,在OpenAI新政策曝光前不到一个月,美国国防部副部长希克斯在访问加州期间曾宣称,美国军方与硅谷联手是“击败”中国的关键。


过去多年,硅谷科技巨头始终与军方刻意保持距离,例如谷歌为了避免卷入军火生意选择出售军方颇感兴趣的机器人公司波士顿动力(Boston Dynamics)。而OpenAI在推出ChatGPT后,在其使用政策中也明确表明禁止用于军事目的。


但是随着近年硅谷新冷战思维和“技术民族主义”的盛行,一些科技巨头陆续放弃与美国政治/军方保持距离的传统立场,以此降低政治成本。


打开了AI武器化的潘多拉盒子


1月10日,媒体The Intercept发现OpenAI在“使用政策”页面中删除了包括“禁止用于高度人身伤害风险的活动”以及“军事和战争”的内容。


新版“使用政策”虽然保留了“不得使用我们的服务伤害自己或他人,例如开发或使用武器”的禁令,但这更像是针对个人行为的限制,而对“军事和战争”的全面禁令已经被OpenAI删除。


OpenAI悄悄修改人工智能“使用政策”的做法引发了业界的广泛猜测,OpenAI发言人Niko Felix在给The Intercept的电子邮件中含混地表示:“我们的目标是创建一套易于记忆和应用的通用原则。”但是,Felix拒绝透露模糊的“伤害”禁令是否涵盖所有军事用途。


事实上,决定一场战争走势的,并非武器开发或使用,而是战场情报处理能力。而这,正是OpenAI避而不谈的人工智能最具毁灭性的军事应用。


网络安全公司Trail of Bits的工程总监、机器学习和自主系统安全专家Heidy Khlaaf指出:“OpenAI非常清楚在军事应用中使用ChatGPT技术和服务可能产生的风险和危害。”Khlaaf在2022年与OpenAI的研发人员合著的一篇论文特别强调了AI技术在军事领域的风险。


Khlaaf补充说,OpenAI的新政策更强调合法性而不是安全性:“新旧政策之间存在明显区别,旧政策明确规定禁止武器开发、军事和战争应用,而新政策则强调灵活性和遵守法律。”“新政策对人工智能安全的潜在影响是巨大的,因为开发武器以及开展军事和战争活动在不同程度上来说都是合法的。鉴于大语言模型(LLM)存在众所周知的偏见和幻觉,并且总体上缺乏准确性,在军事战争中的使用会导致不精确和有偏见的行动,可能会加剧伤害和平民伤亡。”


显然,OpenAI新政策已经“半推半就”地打开了大语言模型武器化的潘多拉盒子。去年,The Intercept曾报道五角大楼和美国情报界对ChatGPT的兴趣日益浓厚,但当时OpenAI不愿透露是否会执行明确的“军事和战争”禁令。


AI Now董事总经理,前美联储AI政策分析师莎拉·迈尔斯·韦斯特(Sarah Myers West)表示:“鉴于人工智能系统已经在加沙冲突中被用于针对平民,OpenAI选择在此时从使用政策中删除‘军事和战争’显得尤为耐人寻味和影响重大。新政策的措辞含糊不清,引发了业界对OpenAI是否打算执行军事禁令的广泛质疑。”


不用直接杀人也能左右战局


虽然目前OpenAI的人工智能产品还无法用于直接杀人,例如ChatGPT还无法操纵无人机或发射导弹。但是像ChatGPT这样的大语言模型可以极大增强军事杀戮机器的威力,例如快速编写代码、处理情报、增强指挥控制系统和生成军事采购订单。对OpenAI提供的ChatGPT定制机器人的审查报告表明,美国军事人员已经开始使用这项技术提高文书工作的效率。


此外,为美军作战提供地理空间情报的美国国家地理空间情报局(NGA)已公开讨论使用ChatGPT来协助人类分析师的可能性。美军各作战单元高度依赖NGA的地理情报和数据执行诸如寻找直升机着陆区、战场监视、目标定位、损害评估等任务,而ChatGPT显然可以大大加快军事作战单元获取地理情报的速度。因此,即便OpenAI的工具被军队部署用于非直接暴力目的,仍然会大大提升军队的战斗力和杀伤力。


兰卡斯特大学科学技术人类学博士和名誉教授Lucy Suchman认为:“从‘军事和战争’到‘武器’的概念切换为OpenAI打开了参与战争基础设施的空间,只要不直接参与狭义的武器开发,其余(例如指挥控制系统)都是AI大展拳脚的领域”。Suchman是20世纪70年代以来的知名人工智能学者,也是国际机器人武器控制委员会成员,他补充道:“新政策片面强调武器,刻意回避了军事承包和作战行动问题,一切不言自明。”


Suchman和MyersWest还特别提及了OpenAI的投资者和合作者微软公司是美国主要国防承包商之一。微软迄今为止已向OpenAI投资了130亿美元,并转售该公司的软件工具。


Intercept指出,OpenAI为AI武器化“开后门”的做法并不令人意外,因为全球各国的军队都渴望采用机器学习技术来获得优势。五角大楼也在试探性地探索如何使用ChatGPT或其他大型语言模型,这些模型可接受大量书籍资料、手册、文章和其他网络数据的培训,以便模拟人类对用户提示的反应。尽管像ChatGPT这样的大语言模型的输出结果通常非常令人信服,但它们是针对连贯性而不是对现实的准确把握而优化的,因此经常出现所谓的机器幻觉,导致准确性和真实性出现问题。


尽管如此,大语言模型快速摄取文本并快速输出分析(或至少是分析的模拟)的能力非常适合数据密集型的国防部。


大语言模型的十大军事用例


尽管美国军方一些高级官员表达了对机器幻觉和错误的忧虑,以及使用ChatGPT分析机密或其他敏感数据可能带来的安全风险,五角大楼仍然渴望大范围采用人工智能工具。美国防部副部长凯瑟琳·希克斯(Kathleen Hicks)在去年11月的讲话中表示,开启人工智能是“我和劳埃德·奥斯汀部长从第一天起就一直在推动的以作战人员为中心的全面创新方法的关键任务”。


去年,五角大楼可信人工智能和自主事务首席主任金伯利·萨布隆(Kimberly Sablon)在夏威夷举行的一次会议上也表示:“(ChatGPT)等大语言模型将为整个军事领域带来大量颠覆性的功能。”


美国军方觊觎的大语言模型十大军事用例如下:


  1. 情报分析与处理:LLMs能够快速处理和分析大量文本数据,如情报报告、通讯拦截和公开源信息,以提取关键信息和模式。自动生成军事行动报告、情况简报和其他官方文档。


  2. 模拟、战术规划和演习:利用大语言模型进行战术和战略模拟,可以帮助军事规划者评估不同冲突情景的可能结果,并优化战术部署。


  3. 舆情分析与心理战:分析社交媒体和网络上的公众舆情,用于心理战和宣传战略。在心理战和信息操作领域,大语言模型可以用于创建针对性的宣传材料,分析敌方的公共信息以判断其意图。


  4. 语言翻译与交流:LLMs可以实时翻译和解码多种语言,包括少数民族和区域性语言,这在军事情报收集和国际部队协作中非常重要。


  5. 训练和培训:大语言模型可以用于创建和管理在线军事教育和培训课程,提供定制化学习体验和自动评估。


  6. 威胁识别:利用先进的数据分析能力快速识别威胁并进行优先级分类。


  7. 预测分析:通过分析历史数据和当前情报,预测敌方行动或地缘政治事件。


  8. 无人系统指令与控制:用于指挥和控制无人机、无人地面车辆等无人系统。


  9. 战术优化与路径规划:利用模型分析战场地形和敌方部署,为部队行动提供最佳路径和战术建议。


  10. 卫星图像与空间数据分析:分析来自卫星的图像和空间数据,以支持侦察和监视任务。


参考链接:


https://openai.com/policies/usage-policies

https://theintercept.com/2024/01/12/open-ai-military-ban-chatgpt/


END

相关阅读

分享照片有风险!斯坦福大学新AI模型可根据照片快速定位

15位大咖预测:2024年AI将改变网络安全游戏规则

ChatGPT遭黑客组织DDoS攻击,大面积瘫痪

ChatGPT检测钓鱼邮件精度高达98%

继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存