美国司法部称Anthropic不可信 无法参与军事作战系统
美国司法部于当地时间3月18日提交法院文件,反驳人工智能公司Anthropic对政府施加“供应链风险”标签的诉讼,称此举不违反其第一修正案权利。文件指出,政府有权基于国家安全考量限制企业参与军事系统,且Anthropic未能证明其面临“不可弥补的损害”。
该文件提交于旧金山联邦法院,是Anthropic向政府发起的两起诉讼之一。Anthropic主张,政府无权单方面限制其技术在国防部系统中的使用,且此举可能使其今年损失数十亿美元收入。公司希望在诉讼期间维持正常业务运营。
司法部代表国防部及多个联邦机构在文件中强调,标签依据是“对Anthropic未来行为的潜在风险担忧”,而非压制其表达自由。文件援引国防部长Pete Hegseth的观点,称Anthropic员工可能“蓄意破坏、恶意篡改或颠覆国家安全系统的完整性”。
文件还指出,AI系统极易被操控,若Anthropic认为其“企业红线”被逾越,可能在战时或战前主动禁用或修改其模型行为,从而对作战系统造成不可预测影响。目前,国防部正在推进用Google、OpenAI和xAI等企业的AI工具替代Anthropic的Claude模型,尤其在Palantir数据分析平台中的应用。
尽管司法部称“无法立即切换系统”,因Anthropic是目前唯一获准用于国防部机密系统和高强度作战环境的AI模型,但法院已安排下周二听证,决定是否允许Anthropic在诉讼期间继续运营。多家企业、AI研究人员、微软、联邦员工工会及前军事领导人已提交支持Anthropic的法庭简报,目前尚无支持政府的简报提交。
Anthropic需在周五前提交对政府论点的回应。
编辑点评
此次事件凸显人工智能技术在国家安全领域的高度敏感性。美国政府对Anthropic采取供应链风险措施,不仅涉及技术可靠性问题,更触及AI企业与军事机构之间权力边界的核心议题。从国际角度看,此举可能成为其他国家在监管AI军事应用时的重要参考。美国将AI模型的“自主性”与“潜在恶意行为”直接关联,为未来AI系统在军事系统中的部署设定了极高门槛。此案例若由法院裁定政府胜诉,将强化政府在国家安全名义下限制私营企业技术应用的法律依据,可能引发全球科技企业对AI军用合规性的重新评估。同时,该事件也反映出美国军方对AI技术依赖的加速,以及对技术供应商主权和伦理红线的高度警惕。长远来看,若形成先例,或推动全球AI治理框架向“技术主权+国家安全优先”方向演进。