美国在“史诗怒火”行动中部署AI系统 助力军事决策
2026年3月3日,美国军方在与伊朗的军事冲突中,部署了由初创公司Anthropic开发的大型语言模型“Claude”,用于实时处理战场与传感器数据,支持情报分析、高价值目标优先排序及作战模拟。该行动代号为“史诗怒火”(Epic Fury),在以色列被称为“咆哮之狮”(Roaring Lion)。
据《华尔街日报》等媒体报道,美国中央司令部(CENTCOM)将Claude与“战斧”巡航导弹、隐形战机及AI驱动的无人机协同使用,大幅缩短“传感器到指挥官”的决策时间。尽管总统唐纳德·特朗普已签署行政令,要求联邦机构在六个月内逐步停用Anthropic技术,但军方因该系统已深度嵌入关键作战流程而继续使用。
美国国防部(DoW)已正式推行“AI优先”战略,旨在将人工智能作为军事作战、情报收集和跨域行动的基础。该战略包括七个“先行项目”,涵盖战术蜂群协调、AI增强的战斗管理代理等,强调通过计算与数据优势获得不对称优势。为支持该战略,DoW已推出GenAI.mil安全平台,允许数百万军民人员访问生成式AI与分析工具。
与此同时,技术伦理争议持续发酵。Anthropic公司拒绝移除其AI模型中的安全限制,尤其是针对自主武器和大规模监控的应用,认为此类用途超出当前安全边界。国防官员则威胁取消合同,甚至将该公司列为“供应链风险”,以强迫其开放更多权限,引发科技行业内部员工抗议,反映军民技术融合中的深层矛盾。
此事件标志着人工智能从后勤辅助工具转变为战场决策核心,对国际法、交战规则及问责机制构成严峻挑战。军方对AI的迫切需求与政策监管的滞后,凸显技术演进与治理之间的结构性张力。
编辑点评
此次美国军方在伊朗冲突中部署AI系统,标志着现代战争进入‘算法驱动’新阶段。AI不仅用于情报分析,更直接参与作战模拟与目标优先级排序,使决策速度远超人类传统模式。这一转变具有重大国际影响:首先,它加剧了全球AI军备竞赛,迫使中俄等国加速军事AI研发以避免战略劣势;其次,AI深度嵌入指挥链可能降低冲突升级门槛,因算法决策缺乏人类情感判断,易引发误判或过度反应;再次,当前国际法体系未充分覆盖AI自主武器、算法透明性及责任归属问题,亟需建立新的治理框架。从长远看,美军此举可能重塑未来战争形态,但若缺乏有效监管,或导致‘算法霸权’及全球安全格局失衡。各国需在技术发展与伦理规范之间寻求平衡,避免AI成为新一轮地缘冲突的催化剂。