美国国防部AI风险标签案宣判:Anthropic败诉,禁用令维持
美国联邦上诉法院哥伦比亚特区巡回上诉法院于2026年4月9日驳回AI公司Anthropic的紧急禁令申请,维持其被国防部列为“国家安全供应链风险”的官方认定。
该三法官合议庭在裁决中指出,政府在军事冲突期间对关键AI技术获取渠道的控制权,优先于企业可能遭受的财务或声誉损害。法院认为,此案中“公平权衡倾向政府一方”,因为“一方是单个私营企业可能承受的有限财务风险,另一方则是战争部在战时如何通过何种渠道获取关键AI技术的司法管理权”。
此标签此前从未被应用于任何美国本土企业,也导致与国防部合作的承包商被禁止使用Anthropic的AI模型。该裁定可能对其他科技公司形成“寒蝉效应”,即在面对政府监管要求时更易妥协。
事件起因于2025年7月,Anthropic与国防部达成协议,使其AI模型Claude成为首个获准在涉密网络中使用的大型语言模型。但2026年2月,双方谈判破裂,政府要求Anthropic允许军方无限制使用Claude,而Anthropic坚持其技术不得用于致命自主武器或大规模国内监控。
2026年2月底,美国总统特朗普下令所有联邦机构停止使用Anthropic产品,称该公司“试图胁迫战争部”,犯下“灾难性错误”。Anthropic随后于3月提起诉讼,指控政府行为构成“非法报复”。
3月底,加州北区地方法院曾发布初步禁令,暂停国防部的标签认定及特朗普禁令,称其“奥威尔式”。但根据联邦采购法,Anthropic需在两个独立法律程序下挑战该认定:一是在加州法院以宪法为由,二是在华盛顿特区上诉法院依据授权该标签的具体法律条款。
上诉法院承认Anthropic“若无禁令可能遭受一定程度不可弥补的损害”,并认为“应加快审理进程”,但最终仍驳回紧急申请。代理美国司法部长Todd Blanche在X平台称此为“军事准备的胜利”,强调“军事权威和作战控制权属于最高统帅和战争部,而非科技企业”。
编辑点评
此案标志着美国政府对AI技术主权控制的强化,具有深远的国际影响。首次将本土AI企业列为“国家安全供应链风险”,打破了科技企业与政府合作的惯常模式,暗示未来政府可能以“国家安全”为由对任何企业实施类似限制。此举不仅影响美国国内AI生态,也可能引发其他国家效仿,形成全球AI监管的“安全例外主义”趋势。
从地缘政治角度看,该判决强化了美国在军事AI领域的主导地位,同时向中国等技术竞争者传递信号:任何被认定为“不可控”的技术供应链都将面临系统性排斥。此外,Anthropic的立场(反对致命自主武器与大规模监控)反映出科技企业与政府在AI伦理问题上的根本分歧,这一张力将在未来全球AI治理框架中持续显现。
经济与市场层面,该判决可能引发科技企业对政府合作的谨慎态度,导致AI军用化进展放缓,或促使企业更主动地迎合政府安全要求。长远来看,若此类标签广泛化,将重塑全球AI供应链格局,推动“安全合规”成为核心技术准入门槛,影响跨国科技合作与投资流向。