Anthropic否认可在战时破坏AI工具
Anthropic公司高管在周五提交的法庭文件中明确表示,该公司无法操控已部署于美国军事系统的生成式AI模型Claude。该声明旨在回应特朗普政府对其可能在战时干扰军事AI工具的指控。
“Anthropic从未具备让Claude停止运行、更改功能、切断访问或以其他方式影响或危及军事行动的能力,”Anthropic公共部门负责人Thiyagu Ramasamy在文件中写道。“公司不具备在战前或战时禁用技术或更改模型行为所需的访问权限。”
美国国防部已将Anthropic列为供应链风险,禁止其软件在国防部及承包商中使用,该禁令将影响未来数月内的采购与部署。其他联邦机构亦正在逐步弃用Claude。
Anthropic已提起两起诉讼,挑战禁令的合宪性,并申请紧急禁令以恢复使用。其中一起案件的听证会定于3月24日在旧金山联邦地区法院举行,法官可能很快作出临时救济裁定。
政府方面在本周早些时候的文件中指出,国防部“无义务容忍在国家防御关键时期,核心军事系统可能因AI供应商行为而受威胁的风险”。据WIRED报道,国防部此前已使用Claude分析数据、撰写备忘录及辅助制定作战计划。
Ramasamy强调,Anthropic不设后门或远程“关闭开关”,其人员无法登录国防部系统修改或禁用模型。他补充,任何更新均需经政府及云服务提供商(如亚马逊云服务)批准,且公司无法访问军事用户输入的提示或数据。
政策负责人Sarah Heck在另一份文件中表示,Anthropic愿在3月4日提出的合同中明确承诺,不干涉国防部合法作战决策。公司也愿意接受条款以防范Claude被用于无人监督的致命打击,但最终谈判破裂。
目前,国防部表示正通过第三方云服务商采取额外措施,确保Anthropic领导层无法对现有Claude系统做出单方面更改。
编辑点评
此次事件凸显了AI技术在国家安全应用中的深层信任与控制权矛盾。美国防部对Anthropic的禁令并非技术缺陷所致,而是源于对AI供应商在战时可能‘叛变’或‘被操控’的系统性担忧。这种担忧在中美科技竞争背景下更显紧迫——当AI深度嵌入军事决策链时,其自主性与可控性成为战略制高点。Anthropic的法律反击表明,科技企业正试图通过法律途径维护自身在国防领域的参与权,但其面临的挑战不仅是技术透明度,更是主权与商业边界的政治博弈。未来,各国或将加速制定AI军事应用的‘安全合规框架’,以平衡创新与风险。这一案件或成为全球AI治理的标志性案例,影响后续政府与科技公司合作的模式。