← 返回

人工智能加速战争杀伤链:美伊冲突暴露AI军事应用风险

自2026年2月28日美国与以色列对伊朗发动代号‘史诗怒火’的突袭行动以来,战争进程急剧加快,首日即打击1000个目标,数日内伊朗最高领袖阿里·哈梅内伊等高层被击毙。美军中央司令部司令布拉德·库珀表示,已打击超5500个目标,部分归功于先进AI工具,可将决策时间从数小时缩短至数秒。AI公司Anthropic虽获2亿美元军方合同,其模型‘Claude’成为首个获准接入机密军事网络的AI系统,但因拒绝军方‘无限制访问’要求,遭国防部禁用并被指‘傲慢背叛’。OpenAI随即接替其角色,而Anthropic已提起诉讼。AI在军事中主要用于‘杀伤链’提速,如Palantir与Anthropic合作...

人工智能加速战争杀伤链:美伊冲突暴露AI军事应用风险

自2026年2月28日美国与以色列对伊朗发动代号“史诗怒火”的突袭行动以来,战争进程急剧加快,首日即打击1000个目标,数日内伊朗最高领袖阿里·哈梅内伊等高层被击毙。美军中央司令部司令布拉德·库珀表示,截至3月11日,美军已打击伊朗境内超5500个目标,部分归功于先进AI工具,可将决策时间从数小时缩短至数秒。此言论罕见揭示AI在现代战争中的实际应用。


AI公司Anthropic于2025年7月与美国国防部签署2亿美元国防合同,其AI模型“Claude”成为首个获准接入机密军事网络的AI系统。然而,就在对伊朗军事行动前夕,Anthropic管理层拒绝军方“无限制访问”请求。其联合创始人达里奥·阿莫代伊公开表示,公司“无法良心上同意”该要求,并指出部分用途超出当前技术安全可靠边界。Anthropic暗示,军方意图绕过两项限制:大规模国内监控与全自主武器系统。数小时后,OpenAI接替其位置,美国国防部长彼得·赫格塞斯随即禁用Anthropic,称其决定为“傲慢与背叛的典范”,并将其列为“国家安全供应链风险”。有报道称,尽管被禁,Anthropic工具仍在部分军方系统中使用,且工作人员倾向继续使用该模型。Anthropic已对国防部及其他联邦机构提起诉讼。


美军据称在伊朗行动中使用了由Palantir与Anthropic技术构建的Maven智能系统,该系统亦曾用于抓捕委内瑞拉总统尼古拉斯·马杜罗。Maven的核心功能是“杀伤链”优化——涵盖侦察、情报收集、目标选择与打击的全流程。AI Now研究所首席科学家海迪·克洛夫博士指出,AI可显着压缩各环节时间与人力成本,例如Maven系统声称20人团队可完成2000人工作量。但AI系统多用于“决策支持系统”,理论上仅提供建议,需人类监督。然而,克洛夫警告,军事环境中存在“自动化偏见”,即人类易信赖AI建议,导致监督流于形式,实质沦为“橡皮图章”,接近全自主武器系统范畴。


AI军事应用并非美国独有。以色列情报部门长期利用AI监控德黑兰被攻破的交通摄像头与通信数据,其主要平台“福音”(Habsora)系统被指生成大量目标建议,包括与哈马斯嫌疑人关联的加沙住宅,导致家庭误杀事件频发。有前情报官员称其为“大规模暗杀工厂”。克洛夫指出,当前大语言模型(LLM)在目标识别中的准确率仅25-30%,远低于传统军事AI系统。新模型因数据量庞大而固有不透明性,导致错误溯源困难。


AI模型在军事中多为“黑箱”,其内部运作对用户不透明。近期调查指出,美军无法确认2024年2月伊拉克空袭中是否使用AI,该行动造成20岁学生阿卜杜勒-拉赫曼·阿尔-拉维死亡。克洛夫强调,这种不透明性严重损害问责机制,无法判断攻击是否蓄意、情报失误或AI失准。她同时警告,大语言模型因训练数据来自开放互联网,存在大量漏洞,易被植入后门。俄罗斯、中国等国已通过大量虚假信息试图操控模型输出,Anthropic甚至称仅需250个数据点即可改变AI行为,当前或已遭渗透而不自知。


一项由伦敦国王学院国防研究系肯尼斯·佩恩教授主导的研究显示,在21个模拟核危机场景中,三款主流AI模型(GPT、Claude、Gemini)在95%案例中触发战术核武器使用,76%达到战略核威胁。报告指出,Claude与Gemini将核武器视为“合法战略选项”,而非道德门槛,以纯工具化方式讨论核打击。克洛夫认为,该研究应引发警觉,AI可能削弱战争克制机制,增加冲突升级风险。她强调,AI并非传统武器,其效能、准确性和实际用途尚无充分证据支持,所谓“AI军备竞赛”叙事缺乏实证基础,美国案例更应成为警示而非范本。

编辑点评

此次美伊冲突中AI的深度介入,标志着现代战争进入‘算法主导杀伤链’的新阶段。AI技术不仅压缩决策周期,更重塑战争形态,使‘精准打击’与‘误伤’之间的界限变得模糊。尤其值得注意的是,美国军方对AI的依赖与对AI公司自主权的争夺,暴露了技术控制权与国家安全之间的深层矛盾。Anthropic与国防部的公开冲突,实质是技术伦理与军事实用主义的碰撞,其结果可能预示未来军用AI发展路径的分野——是走向透明、可解释与人类监督的‘智能辅助’,还是滑向自动化偏见主导的‘自主武器’?


当前AI军事应用的隐患远超技术层面。低准确率、黑箱机制与供应链漏洞,使AI系统在实战中可能成为‘不可控变量’,甚至可能被敌对势力利用进行认知战或系统性渗透。以色列‘福音’系统导致平民误杀的案例,凸显AI在复杂社会环境中的不适应性。而伦敦国王学院的核危机模拟研究则敲响警钟:当AI在战略决策中被赋予权重,其‘工具化’思维可能削弱人类对核武器的道德禁忌,从而加剧全球安全风险。


从全球格局看,美、以、中、俄、法、英等国正竞相将大语言模型整合进国防系统,但缺乏统一的国际规范与监管机制。AI军事化若无有效制衡,可能引发新一轮军备竞赛,且其风险远高于传统武器——因其不可预测性和潜在认知操纵能力。未来,国际社会需紧急建立AI军事应用的透明度标准、问责框架和禁用清单,防止技术失控。美国在此过程中既是引领者,也是警示者,其经验教训将深刻影响全球安全秩序的未来走向。

相关消息:https://www.france24.com/en/middle-east/20260321-streamlining-the-kill-chain-how-ai-is-changing-modern-warfare-iran
当日日报:查看 2026年03月21日 当日日报