美国在对伊朗空袭中使用Anthropic人工智能技术,此前一日已下令禁用
2026年2月27日,美国总统特朗普在Truth Social平台发布长文,指令所有联邦机构立即停止使用Anthropic公司的人工智能技术。该命令源于美国国防部与Anthropic之间存在严重分歧。
据《华尔街日报》报道,就在特朗普发布禁令数小时后,美国对伊朗发动了一次重大空袭行动,此次行动中使用了Anthropic的AI工具。特朗普在声明中强调,将给予六个月的过渡期,要求Anthropic“在这一阶段表现配合”,否则将动用总统全部权力予以强制执行,并追究重大民事与刑事后果。
此前,Anthropic的Claude技术已在2026年1月被用于美国在委内瑞拉的军事行动,成为首个被证实用于美国国防部机密作战任务的AI开发公司。该技术通过Anthropic与Palantir的合同进入美国军事系统。
此次事件暴露了美国政府在AI技术监管上的执行矛盾,引发对政策连续性与技术安全控制的广泛讨论。
编辑点评
此次事件凸显美国在人工智能军事化应用与国家安全政策之间的严重脱节。尽管特朗普公开下令禁用Anthropic技术,却在同一天将其用于针对伊朗的军事行动,暴露出决策层与执行层之间的协调断裂,以及AI技术在高度机密军事任务中难以完全管控的现实。从国际角度看,此举可能加剧全球对AI武器化的担忧,尤其在中美科技竞争背景下,美国对AI的使用政策不透明将影响盟友信任与国际规则制定。此外,Palantir作为中间平台,其在军事AI供应链中的角色需被重新审视。长期而言,若缺乏统一的AI使用框架,美国在战略技术领域可能面临内部混乱与外部战略误判双重风险。