Anthropic提交法庭声明反驳五角大楼安全风险指控
AI公司Anthropic于2026年3月21日向加州联邦法院提交两份宣誓声明,反驳美国国防部称其对国家安全构成“不可接受风险”的指控。该行动是其针对国防部提起诉讼的回应,听证会定于3月24日在旧金山联邦法院举行,由法官Rita Lin主持。
声明由Anthropic政策主管Sarah Heck和公共事业主管Thiyagu Ramasamy签署。Heck指出,政府声称Anthropic要求对军事行动拥有审批权的说法“完全不属实”,且五角大楼从未在谈判中提出其技术可能在操作中被禁用或篡改的担忧,该论点首次出现在法院文件中。
Heck还披露,3月4日——即五角大楼正式将Anthropic列为供应链风险实体的次日——副部长Emil Michael曾邮件告知CEO Dario Amodei,双方在自主武器和大规模监控美国人等核心议题上“非常接近”达成一致。而Michael在随后的公开表态中却称“无任何谈判正在进行”,并排除重启对话可能。
Ramasamy则从技术角度反驳,指出一旦Claude模型部署于政府隔离系统中,Anthropic无法远程访问或修改其行为,亦无“远程关闭”机制或后门。他强调,任何模型更新均需五角大楼明确批准并由第三方执行。此外,公司员工已通过美国政府安全审查,且Anthropic是唯一一家由经过审查人员直接构建用于机密环境AI模型的公司。
Anthropic称,其被列为首个美国本土企业供应链风险实体,实为对其公开AI安全立场的报复,涉嫌违反宪法第一修正案。国防部则在早前40页文件中反驳,称该决定基于合法军事使用限制的商业选择,而非言论自由问题。
编辑点评
此次事件凸显人工智能技术在国家安全与商业自由之间的深刻矛盾。在特朗普政府推动科技与国防深度融合的背景下,五角大楼对Anthropic的制裁举动不仅挑战了企业对AI应用边界的话语权,也暴露了美国政府在技术主权与言论自由之间的张力。若法院裁定该制裁构成对言论的压制,将可能重塑美国科技企业与政府关系的法律框架,尤其对AI公司设定政策边界产生深远影响。同时,事件引发的公众对自主武器和监控技术的讨论,可能推动全球AI治理规则的演进。长远来看,此案或成为美国科技企业在国家安全议题上‘战略抗争’的标志性案例,影响未来AI技术出口、军民融合及国际技术合作格局。