← 返回

美国国防部AI风险标签案宣判:Anthropic败诉,禁用令维持

美国联邦上诉法院哥伦比亚特区巡回上诉法院驳回了AI公司Anthropic要求暂停国防部将其列为“国家安全供应链风险”的紧急申请。法院认为,在军事冲突期间,政府对AI技术获取渠道的控制权优先于企业可能遭受的财务或声誉损失。该标签此前从未应用于美国本土企业,且禁止与国防部合作的承包商使用Anthropic的AI模型。此案源于2025年7月双方达成的协议,后因 Anthropic 拒绝允许其模型用于致命自主武器和大规模国内监控,谈判破裂。2026年2月,美国总统特朗普下令联邦机构停止使用Anthropic产品,称其“试图胁迫战争部”。Anthropic于3月提起诉讼,称此举为“非法报复”。加州...

美国国防部AI风险标签案宣判:Anthropic败诉,禁用令维持

美国联邦上诉法院哥伦比亚特区巡回上诉法院于2026年4月9日驳回AI公司Anthropic的紧急禁令申请,维持其被国防部列为“国家安全供应链风险”的官方认定。

该三法官合议庭在裁决中指出,政府在军事冲突期间对关键AI技术获取渠道的控制权,优先于企业可能遭受的财务或声誉损害。法院认为,此案中“公平权衡倾向政府一方”,因为“一方是单个私营企业可能承受的有限财务风险,另一方则是战争部在战时如何通过何种渠道获取关键AI技术的司法管理权”。

此标签此前从未被应用于任何美国本土企业,也导致与国防部合作的承包商被禁止使用Anthropic的AI模型。该裁定可能对其他科技公司形成“寒蝉效应”,即在面对政府监管要求时更易妥协。

事件起因于2025年7月,Anthropic与国防部达成协议,使其AI模型Claude成为首个获准在涉密网络中使用的大型语言模型。但2026年2月,双方谈判破裂,政府要求Anthropic允许军方无限制使用Claude,而Anthropic坚持其技术不得用于致命自主武器或大规模国内监控。

2026年2月底,美国总统特朗普下令所有联邦机构停止使用Anthropic产品,称该公司“试图胁迫战争部”,犯下“灾难性错误”。Anthropic随后于3月提起诉讼,指控政府行为构成“非法报复”。

3月底,加州北区地方法院曾发布初步禁令,暂停国防部的标签认定及特朗普禁令,称其“奥威尔式”。但根据联邦采购法,Anthropic需在两个独立法律程序下挑战该认定:一是在加州法院以宪法为由,二是在华盛顿特区上诉法院依据授权该标签的具体法律条款。

上诉法院承认Anthropic“若无禁令可能遭受一定程度不可弥补的损害”,并认为“应加快审理进程”,但最终仍驳回紧急申请。代理美国司法部长Todd Blanche在X平台称此为“军事准备的胜利”,强调“军事权威和作战控制权属于最高统帅和战争部,而非科技企业”。

编辑点评

此案标志着美国政府对AI技术主权控制的强化,具有深远的国际影响。首次将本土AI企业列为“国家安全供应链风险”,打破了科技企业与政府合作的惯常模式,暗示未来政府可能以“国家安全”为由对任何企业实施类似限制。此举不仅影响美国国内AI生态,也可能引发其他国家效仿,形成全球AI监管的“安全例外主义”趋势。

从地缘政治角度看,该判决强化了美国在军事AI领域的主导地位,同时向中国等技术竞争者传递信号:任何被认定为“不可控”的技术供应链都将面临系统性排斥。此外,Anthropic的立场(反对致命自主武器与大规模监控)反映出科技企业与政府在AI伦理问题上的根本分歧,这一张力将在未来全球AI治理框架中持续显现。

经济与市场层面,该判决可能引发科技企业对政府合作的谨慎态度,导致AI军用化进展放缓,或促使企业更主动地迎合政府安全要求。长远来看,若此类标签广泛化,将重塑全球AI供应链格局,推动“安全合规”成为核心技术准入门槛,影响跨国科技合作与投资流向。

相关消息:https://cointelegraph.com/news/anthropic-loses-bid-pause-pentagon-supply-chain-risk-designation?utm_source=rss_feed&utm_medium=rss&utm_campaign=rss_partner_inbound
当日日报:查看 2026年04月09日 当日日报