美国国防部禁用Anthropic AI模型 法院驳回临时禁令申请
美国联邦上诉法院于2026年4月9日作出裁决,驳回了人工智能公司Anthropic请求临时阻止国防部将其AI模型Claude列入黑名单的申请。这意味着,Anthropic在诉讼期间仍将被排除在国防部所有合同之外,尽管另一联邦法院此前已允许其他联邦机构继续使用Claude。
法院在裁定中指出:"在我们看来,公平权衡倾向于政府一方。一方面,仅有一家私营企业面临相对有限的财务风险;另一方面,法院需管理国防部在军事冲突期间通过谁获取关键AI技术的问题。因此,我们拒绝Anthropic的暂缓执行申请。"
尽管法院承认Anthropic在缺乏禁令的情况下“可能遭受一定程度的不可弥补损害”,但认为其利益“主要属于经济性质”。对于该公司声称国防部阻碍其言论自由的主张,法院回应称:"Anthropic未能证明其言论在诉讼期间受到抑制。"
与此同时,法院强调“有必要加快审理进程”,以应对案件的紧迫性。该裁决导致国防部承包商在与该部门合作项目中被禁止使用Claude,但可将其用于其他非国防部相关工作。
Anthropic公司发言人表示,公司感谢法院认可本案需迅速解决,并重申“相信法院最终将认定这些供应链指定措施违法”。公司强调,尽管诉讼必要,但其核心目标仍是与政府合作,确保所有美国人受益于安全可靠的AI技术。
编辑点评
此次裁决凸显了美国政府在军事安全与技术创新之间日益复杂的平衡难题。国防部对Anthropic的禁令并非基于技术缺陷,而是出于对AI供应链安全的考量,特别是在潜在军事冲突背景下。法院的裁决表明,美国司法体系在国家安全与企业权利之间倾向于优先保障政府职能的连续性,这可能为未来AI监管设定先例。
从国际角度看,此事件可能影响其他国家对AI技术出口与使用政策的制定。美国作为全球AI技术领导者,其监管框架将对全球科技企业产生示范效应。同时,该事件也反映出AI技术已深度融入国防体系,其供应链控制权成为地缘政治博弈的新焦点。
长期而言,若此类禁令成为常态,可能诱发科技企业与政府之间的系统性摩擦,加速AI技术的国别化与碎片化。此外,其他政府或效仿美国,对特定AI模型实施“国家安全”限制,从而重塑全球AI生态格局。