← 返回

Anthropic否认可在战时破坏AI工具

Anthropic公司高管在法庭文件中否认其能操控已部署于美军系统的AI模型Claude,称公司无权限关闭、修改或干扰军事操作。该声明回应了特朗普政府对其构成供应链风险的指控。美国防部已将其列为风险供应商,禁止其软件在国防部及承包商中使用,其他联邦机构亦逐步弃用Claude。Anthropic已提起两起诉讼挑战禁令,并申请紧急禁令。目前,国防部正通过第三方云服务商限制Anthropic单方面修改系统的能力。听证会定于3月24日在旧金山举行,可能很快裁定临时救济措施。

Anthropic否认可在战时破坏AI工具

Anthropic公司高管在周五提交的法庭文件中明确表示,该公司无法操控已部署于美国军事系统的生成式AI模型Claude。该声明旨在回应特朗普政府对其可能在战时干扰军事AI工具的指控。

“Anthropic从未具备让Claude停止运行、更改功能、切断访问或以其他方式影响或危及军事行动的能力,”Anthropic公共部门负责人Thiyagu Ramasamy在文件中写道。“公司不具备在战前或战时禁用技术或更改模型行为所需的访问权限。”

美国国防部已将Anthropic列为供应链风险,禁止其软件在国防部及承包商中使用,该禁令将影响未来数月内的采购与部署。其他联邦机构亦正在逐步弃用Claude。

Anthropic已提起两起诉讼,挑战禁令的合宪性,并申请紧急禁令以恢复使用。其中一起案件的听证会定于3月24日在旧金山联邦地区法院举行,法官可能很快作出临时救济裁定。

政府方面在本周早些时候的文件中指出,国防部“无义务容忍在国家防御关键时期,核心军事系统可能因AI供应商行为而受威胁的风险”。据WIRED报道,国防部此前已使用Claude分析数据、撰写备忘录及辅助制定作战计划。

Ramasamy强调,Anthropic不设后门或远程“关闭开关”,其人员无法登录国防部系统修改或禁用模型。他补充,任何更新均需经政府及云服务提供商(如亚马逊云服务)批准,且公司无法访问军事用户输入的提示或数据。

政策负责人Sarah Heck在另一份文件中表示,Anthropic愿在3月4日提出的合同中明确承诺,不干涉国防部合法作战决策。公司也愿意接受条款以防范Claude被用于无人监督的致命打击,但最终谈判破裂。

目前,国防部表示正通过第三方云服务商采取额外措施,确保Anthropic领导层无法对现有Claude系统做出单方面更改。

编辑点评

此次事件凸显了AI技术在国家安全应用中的深层信任与控制权矛盾。美国防部对Anthropic的禁令并非技术缺陷所致,而是源于对AI供应商在战时可能‘叛变’或‘被操控’的系统性担忧。这种担忧在中美科技竞争背景下更显紧迫——当AI深度嵌入军事决策链时,其自主性与可控性成为战略制高点。Anthropic的法律反击表明,科技企业正试图通过法律途径维护自身在国防领域的参与权,但其面临的挑战不仅是技术透明度,更是主权与商业边界的政治博弈。未来,各国或将加速制定AI军事应用的‘安全合规框架’,以平衡创新与风险。这一案件或成为全球AI治理的标志性案例,影响后续政府与科技公司合作的模式。

相关消息:https://www.wired.com/story/anthropic-denies-sabotage-ai-tools-war-claude/
当日日报:查看 2026年03月21日 当日日报