Anthropic向法院申请暂停五角大楼禁令 诉求临时禁令以维护业务
人工智能初创公司Anthropic于2026年3月24日向美国加州旧金山联邦法院提交申请,请求法官Rita Lin颁发临时禁令,暂停美国国防部(Pentagon)对其Claude人工智能模型的禁用措施。该禁令源于国防部在3月初将Anthropic列为“供应链风险”实体,称其技术可能威胁美国国家安全。
此为美国首次将本土科技公司列为该类风险。若禁令持续,包括亚马逊、微软和Palantir在内的国防承包商将被迫证明其工作未使用Claude模型。Palantir首席执行官Alex Karp在3月12日向CNBC表示,公司仍在继续使用Claude支持国防部项目,包括在与伊朗的军事行动中。
Anthropic在申请文件中强调,其技术无任何安全漏洞,且公司曾主动要求五角大楼不得将Claude用于全自主武器系统或对美国公民的大规模监控,因此认为此举是对其的报复。公司称,若无临时禁令,可能面临数十亿美元的经济损失,并遭受声誉损害。
听证会定于当地时间24日16时30分(ET)举行,可通过Zoom在线观看。法官Lin或将在听证后立即口头裁决,或稍后发布书面裁定。此前,她已向双方律师提出关键问题,包括“Anthropic在交付技术后是否仍能控制或访问Claude,并可能实施破坏或颠覆行为?”
Anthropic指出,临时禁令不会强制政府使用其产品,也不会阻碍其转向其他AI供应商。该公司曾于2025年7月与五角大楼签署2亿美元合同,是首个在美军机密网络部署AI技术的公司。然而,自2025年9月起,双方在AI平台GenAI.mil部署谈判中因使用权限问题陷入僵局。特朗普于2026年2月在Truth Social上发布指令,要求所有联邦机构“立即停止”使用Anthropic技术,并称“我们将决定国家命运,而不是由失控的激进左翼AI公司决定”。
编辑点评
此事件凸显人工智能技术在国家安全框架下的高度敏感性。美国国防部将本土AI企业列为供应链风险,打破了以往对本国科技公司“信任默认”的惯例,标志着AI治理进入更严格的审查阶段。此举不仅影响Anthropic自身业务,更可能引发其他科技企业对政府合作的顾虑,抑制创新与技术融合。
从国际角度看,该事件强化了美国对AI技术自主可控的执念,可能加剧全球AI技术“阵营化”趋势。若美国持续对国内AI企业施加政治化管控,将削弱其在全球AI生态中的领导地位,同时为竞争对手如中国、欧盟提供差异化发展机会。此外,特朗普直接通过社交媒体发布行政指令,挑战了传统行政程序,显示政治与科技权力交织的复杂性。
未来,此类“技术安全审查”可能成为各国常规手段,但如何平衡国家安全与创新自由,将成为全球治理的长期课题。此次听证结果或将影响美国联邦政府与AI企业合作的范式,具有深远制度性意义。