← 返回

美军或用生成式AI辅助目标排序 决策仍由人类最终确认

美国国防部官员透露,美军可能利用生成式AI系统对潜在目标进行排序并提出优先打击建议,但最终决策仍由人类审核。该系统可结合飞机位置等变量分析数据,推荐优先目标。OpenAI的ChatGPT和xAI的Grok或将在未来用于此类任务,而Anthropic的Claude已用于伊朗、委内瑞拉等地区的军事行动。此举是美军“Maven”大数据计划的延伸,后者自2017年起利用计算机视觉分析无人机影像。生成式AI的引入旨在加快决策速度,但其输出更易获取却更难验证。此披露正值美军对伊朗一所女子学校发动袭击后引发广泛质疑,初步调查显示部分原因在于使用了过时目标数据。目前,美军仅批准少数AI模型用于机密环境,...

美军或用生成式AI辅助目标排序 决策仍由人类最终确认

美国国防部一名知情官员透露,美军可能利用生成式AI系统对潜在目标进行排序并提出优先打击建议,但最终决策仍由人类审核。该系统可结合飞机位置等变量分析数据,推荐优先目标。

该官员在与MIT Technology Review的匿名交谈中表示,目标列表将输入五角大楼正在部署的机密环境AI系统,人类可向系统提问,要求其分析并排序高优先级目标。人类随后需核实和评估系统输出结果。

理论上,OpenAI的ChatGPT和xAI的Grok未来可用于此类场景,因其近期已与五角大楼达成协议,允许其模型用于机密环境。该官员称此为“示例用例”,未确认当前是否实际采用。

其他报道指出,Anthropic的Claude已集成至现有军事AI系统,并用于伊朗和委内瑞拉的军事行动。此番披露进一步揭示了聊天机器人在加速目标搜索中的具体角色,也反映了美军正部署两种具有不同局限性的AI技术。

自2017年起,美军推进名为“Maven”的“大数据”计划,主要利用计算机视觉技术分析海量影像数据。例如,系统可自动识别数千小时无人机航拍画面中的潜在目标。2024年乔治城大学报告指出,士兵通过战场地图和仪表盘界面使用该系统选择并审核目标,显着缩短了审批流程。

如今,生成式AI被引入为“对话式聊天机器人”层,旨在更快速地查找和分析数据,辅助决策,如确定打击优先级。与Maven基于地图的直接数据交互不同,生成式AI输出更易访问,但验证难度更高。

官员称,使用生成式AI可缩短目标决策时间,但未说明人类复核模型输出所需时间的具体影响。

此披露正值美军对伊朗一所女子学校发动袭击后引发广泛质疑,造成百余名儿童死亡。尽管五角大楼称事件仍在调查,但多家媒体援引消息称袭击由美军导弹造成。《华盛顿邮报》曾报道称Claude和Maven参与了伊朗的打击决策,但尚无证据表明生成式AI在其中扮演何种角色。《纽约时报》周三报道,初步调查发现过时目标数据部分导致此次误击。

近期,美军正加速在各军事行动中部署AI。自2023年12月起,通过GenAI.mil项目向数百万军人开放非机密生成式AI功能,如合同分析和演示文稿撰写。但仅少数模型获准用于机密环境。首例为Anthropic的Claude,除用于伊朗行动外,还据称参与了2026年1月对委内瑞拉领导人尼古拉斯·马杜罗的抓捕行动。但因与国防部在AI使用限制上产生分歧,该模型被五角大楼列为供应链风险。特朗普在社交媒体上要求政府六个月内停止使用其AI产品,Anthropic正就此提起诉讼。

OpenAI于2月28日宣布与国防部达成协议,允许其技术用于机密环境。埃隆·马斯克的xAI公司也已达成类似协议,其模型Grok可参与机密任务。OpenAI称协议含有限制条款,但实际执行效果尚不明确。

编辑点评

美军引入生成式AI辅助目标排序,标志着军事决策系统从传统计算机视觉向人机协同智能演进。此举虽未改变人类最终决策权,但显着缩短情报分析周期,提升作战响应速度,尤其在高动态战场环境下具有战略价值。然而,生成式AI的黑箱特性与输出可解释性不足,加剧了误判风险,伊朗女子学校袭击事件恰暴露了数据过时与系统验证缺失的致命漏洞。从国际视角看,此举可能引发全球军备竞赛的AI化,推动其他国家加速军用AI研发,形成新的战略不稳定因素。同时,美国在AI供应商选择上的政治化操作——如特朗普对Anthropic的限制——可能破坏技术中立原则,影响全球AI安全治理框架的建立。长期而言,如何平衡AI效率与人类监督、技术先进性与伦理风险,将成为国际军事科技发展核心议题。

相关消息:https://www.technologyreview.com/2026/03/12/1134243/defense-official-military-use-ai-chatbots-targeting-decisions/
当日日报:查看 2026年03月13日 当日日报