美国国防部仍在使用Anthropic AI系统 但国防科技企业纷纷撤离
2026年3月4日,美国国防部在与伊朗持续冲突中仍在使用Anthropic公司开发的AI系统进行实时目标识别与优先级排序,尽管总统特朗普已下令民用机构停止使用其产品,并要求国防部门在六个月内逐步终止合作。然而,由于军事行动突发,相关禁令尚未完全执行。
《华盛顿邮报》报道指出,Anthropic系统与Palantir的Maven平台协同工作,在美军筹划对德黑兰的突袭时,"建议数百个目标,提供精确坐标,并根据重要性进行优先排序"。该系统功能被描述为"实时目标定位与优先级排序",目前仍在活跃战区中被实际应用。
与此同时,洛克希德·马丁等主要国防承包商及多家分包商已开始替换Anthropic的Claude模型。据路透社报道,多家国防科技公司本周已启动替换流程。J2 Ventures的一位管理合伙人向CNBC透露,其投资组合中10家公司已停止在国防领域使用Claude,并正积极寻找替代方案。
国防部长彼得·赫格塞斯已承诺将Anthropic列为供应链风险企业,但截至目前,尚未采取任何正式措施,因此在法律层面仍无使用禁令。这一矛盾局面导致该公司处于尴尬境地:一边被用于实际军事行动,一边被国防产业客户纷纷抛弃。未来是否实施正式禁令、是否可能引发法律争端,成为当前关注焦点。
编辑点评
此次事件凸显了人工智能在现代战争中的深度嵌入,以及美国政府在技术使用上的政策矛盾。特朗普政府对Anthropic的限制政策本意是强化国家安全,但军事行动的突发性打乱了执行节奏,导致AI系统仍在战区实际使用。这种"政策滞后于行动"的现象,暴露了国家战略与技术部署之间的协调难题。
从地缘政治角度看,美国与伊朗的军事冲突升级,使得AI在目标识别和作战决策中的作用愈发关键。Anthropic与Palantir系统的协同,代表了军事AI从辅助工具向核心决策系统的转变,这将重塑未来战争形态。然而,国防企业客户的大规模撤离,反映出私营部门对政策不确定性的高度敏感,也预示着美国国防科技供应链正面临重组。
长期来看,若美国政府正式将Anthropic列为供应链风险企业,可能引发重大法律争议,挑战AI技术在军事领域的合规边界。这不仅影响美国军方的技术选择,也可能为其他国家提供监管借鉴,推动全球AI军事化治理框架的建立。