法官称政府对Anthropic的禁令疑似惩罚行为
美国加利福尼亚州旧金山联邦法院法官丽塔·F·林于2026年3月25日表示,美国政府对AI公司Anthropic的禁令看起来像是对其公开批评国防部AI使用政策的惩罚。
林法官在旧金山北区联邦法院举行的听证会上作出上述评论,该听证会涉及Anthropic请求临时禁令的诉讼。Anthropic因CEO达里奥·阿莫德伊(Dario Amodei)在2026年2月下旬宣布,拒绝允许其AI模型Claude用于自主武器或监视美国公民,而被特朗普政府禁止在所有联邦机构中使用其产品。
国防部于2026年3月早些时候将Anthropic列为“供应链风险”,这一标签通常用于被认定为外国对手、可能损害美国利益的实体。此举导致与国防部合作的承包商亦被禁止与Anthropic开展业务。
Anthropic已在旧金山北区联邦法院及华盛顿特区联邦上诉法院提起两项诉讼,指控政府行为违反其第一修正案言论自由权,并越权使用供应链风险法。公司方面认为该禁令将导致客户流失和收入下降。
林法官指出,政府有权决定使用何种AI产品,但她质疑当前的禁令和国防部长彼得·赫格塞斯(Pete Hegseth)要求所有寻求与国防部合作的企业切断与Anthropic关系的措施,是否构成法律违规。她表示这些措施“令人不安”,因为其范围超出了必要的国家安全考量,似乎旨在惩罚公司表达立场的行为。
政府律师辩称,禁令并非报复行为,而是基于Anthropic对AI模型使用方式的立场分歧,而非其公开言论。政府还称,未来Anthropic可能更新Claude模型,从而构成潜在国家安全威胁。
Anthropic未立即回应记者的置评请求。国防部发言人则表示,该机构政策不评论正在进行的诉讼。
编辑点评
此案凸显了人工智能技术发展与政府监管之间的紧张关系。Anthropic作为美国本土领先AI企业,因公开反对AI军事化而被政府列为‘供应链风险’,此举在法律和政治层面均引发广泛争议。如果法院最终裁定政府行为构成言论自由侵犯,将对美国科技企业在国家安全议题上的言论空间产生深远影响。同时,该事件可能重塑政府对AI技术的监管框架,尤其是在军事应用和民用自由之间寻求平衡。从国际视角看,美国政府对本国AI公司的严厉措施可能被其他国家解读为‘技术政治化’的先例,影响全球AI治理格局。此外,此案若走向最高法院,或成为界定AI公司‘言论权’边界的标志性判例,长远来看或改变科技企业与政府互动的基本规则。