美国联邦法院叫停国防部将Anthropic列为供应链风险企业
美国联邦地区法院法官丽塔·林于周四裁定,阻止美国国防部将人工智能公司Anthropic列为供应链风险企业。这一初步禁令被视为对白宫AI监管政策的司法挑战,同时为Anthropic恢复客户合作提供法律支持。
林法官在裁决中指出,国防部将Anthropic列为“供应链风险”的行为“很可能违反法律,且具有任意性和武断性”。她强调,Anthropic在使用限制方面态度明确,不能据此推断该公司存在破坏国家安全的潜在风险。
该裁决恢复了2026年2月27日之前的法律状态,即在国防部发布相关指令前的运作环境。林法官明确表示,该禁令不强制国防部必须继续使用Anthropic产品或服务,也不阻止其转向其他AI供应商,前提是相关行为符合现行法规、法律及宪法条款。
Anthropic与国防部均未立即回应媒体置评请求。此前,国防部曾长期使用Anthropic的Claude AI工具撰写敏感文件及分析机密数据。但本月起,因认为Anthropic设置的使用限制“不必要”,特朗普政府逐步停止使用Claude,并于近期发布多项指令,包括将其列为供应链风险企业,导致联邦政府内部Claude使用逐步中止,影响公司销售与声誉。
Anthropic已就相关制裁措施提起两项诉讼,指控其违宪。在周二的听证会上,林法官指出,政府行为似乎旨在“削弱”和“惩罚”Anthropic。目前,该禁令暂未生效,需一周后执行,且另一项诉讼仍在华盛顿特区联邦上诉法院审理中。
该裁决可能影响联邦机构对AI技术的采购政策,尤其在国家安全与技术创新之间的平衡问题上,具有象征性意义。
编辑点评
此次裁决凸显了美国政府在人工智能监管上的法律与政策困境。将Anthropic列为供应链风险企业的行为,实质上是将技术企业纳入国家安全审查框架,但缺乏明确法律授权与程序正当性。联邦法院的初步禁令表明,司法系统对行政机构过度扩张监管权持审慎态度,尤其当监管行为可能对技术创新和企业声誉造成重大损害时。
从国际视角看,美国政府对AI企业的监管模式正成为全球数字治理的风向标。若此类“供应链风险”标签频繁用于限制AI技术应用,可能引发技术脱钩、企业合规成本上升,并影响跨国AI合作。同时,该事件可能促使其他国家重新审视其AI监管框架,平衡国家安全与技术创新之间的关系。
长远而言,此案或推动美国建立更透明、可预测的AI监管机制。若政府希望维持对AI技术的控制力,必须提供更具说服力的法律依据和程序保障。否则,司法系统可能会继续对行政命令进行制约,影响政策执行效率与国际科技企业对美国市场的信心。
此外,Anthropic此次胜诉虽为临时性,但已释放出积极信号:在AI监管尚未形成统一法律框架前,企业仍可通过司法途径维护自身权益。未来类似纠纷可能增多,尤其是在国家安全、数据主权与技术发展之间的张力持续存在背景下。