美国法官暂停特朗普时期对AI公司Anthropic的制裁
美国联邦法官里塔·林于2026年3月27日在加利福尼亚州北区法院裁定,暂时中止特朗普政府时期对AI公司Anthropic实施的制裁措施。该裁决认为,政府将Anthropic列为国家安全供应链风险实体的做法可能违反法律,尤其因其在公开场合表达对五角大楼使用其技术的担忧。
裁决冻结了禁止联邦机构使用Anthropic技术的总统令,并暂停了五角大楼对该公司的风险认定。Anthropic是Claude AI模型的开发者,该风险标签通常适用于来自敌对国家的组织,不仅禁止五角大楼使用其技术,还要求所有国防承包商和供应商证明其工作未使用Anthropic模型。
Anthropic公司发言人表示,感谢法院迅速行动,并认为公司有望在案件实质上胜诉。公司强调,尽管此案必要,但其核心目标仍是与政府合作,确保所有美国人受益于安全可靠的AI技术。
此次争议源于上月,Anthropic因反对其技术被用于大规模监控或全自动武器系统,引发五角大楼部长彼得·赫格塞斯不满。赫格塞斯在X平台称,Anthropic的行为体现了“傲慢与背叛”,并称其为“与美国政府或五角大楼合作的反面教材”。
法官林在听证中表示,政府试图因公司批评政府采购政策而对其施加惩罚,可能违反宪法言论自由条款。她在裁决中指出,政府将美国公司标记为潜在对手和破坏者的做法“缺乏法律依据,且具有任意性和武断性”。她还列举了政府行动中的“严重程序问题”作为发布临时禁令的理由。
科技行业普遍支持Anthropic,此次裁决暂时中止制裁七天,以允许政府提交紧急上诉请求。
编辑点评
此次美国联邦法院裁定暂停特朗普时期对Anthropic的制裁,具有深远的国际意义。它不仅关乎AI技术的监管框架,更触及政府权力与企业言论自由的边界。在全球AI竞争加剧的背景下,美国政府将本国科技企业视为“国家安全风险”,并施加类似针对外国企业的制裁手段,引发对美国科技政策合理性的质疑。此举可能削弱美国AI企业与政府合作的信任基础,甚至影响其全球竞争力。
该事件暴露了美国在AI治理中的矛盾:一方面推动AI发展,另一方面以国家安全为名限制技术使用。法官的裁决强调宪法权利,表明司法系统对行政权的制衡作用,这在民主国家治理中具有示范意义。同时,事件凸显AI伦理问题的复杂性——企业对技术军事化应用的抵制,正日益成为全球科技公司的共识。
未来,类似争议可能在更多国家出现。若美国政府上诉失败,将可能重塑政府与AI企业之间的合作模式。更广泛地,此案或推动国际社会重新思考:如何在国家安全与技术创新、企业自由表达之间寻求平衡。在AI技术快速演进的今天,这一案例将成为全球AI治理的重要参考点。