← 返回

美国防部称Anthropic存在国家安全风险 拒绝其临时禁令请求

美国国防部于2026年3月18日提交40页法律文件,驳回AI公司Anthropic提出的临时禁令请求,称其技术可能因公司所谓‘红线’在战时被人为干扰,构成‘不可接受的国家安全风险’。此前,Anthropic因反对其AI技术用于美国民众大规模监控及致命武器决策,与国防部在合同条款上产生争议。该公司去年夏季与五角大楼签署2亿美元合同,用于部署其技术于涉密系统。多科技企业及法律团体已提交支持Anthropic的法庭意见书。该案初步禁令听证会定于下周二举行。

美国防部称Anthropic存在国家安全风险 拒绝其临时禁令请求

美国国防部于2026年3月18日提交一份40页的法律文件,驳回AI公司Anthropic提出的临时禁令请求,称其技术可能因公司所谓“红线”在战时被人为干扰,构成“不可接受的国家安全风险”。

该文件提交至加州联邦法院,回应Anthropic此前对国防部长Pete Hegseth上月将其列为供应链风险的诉讼。Anthropic在诉讼中要求法院临时禁止国防部执行该标签,同时指控国防部侵犯其第一修正案权利,并基于意识形态对其进行惩罚。

美国防部的核心论点是,若Anthropic认为其“红线”被触碰,公司可能在战时操作前或期间试图禁用其技术或预先更改模型行为,从而影响军事行动安全。

此前,Anthropic于2025年夏季与美国国防部签署一项2亿美元合同,用于将其AI技术部署至涉密系统。在后续协商中,Anthropic明确表示反对将其系统用于美国民众的大规模监控,亦称其技术尚未准备好用于致命武器的瞄准或开火决策。国防部则认为,私营企业不应主导军事技术的使用方式。

包括OpenAI、Google、Microsoft在内的多家科技公司及员工,以及若干法律权利组织,已提交法庭支持意见书,支持Anthropic立场。该案初步禁令听证会定于2026年3月25日举行。Anthropic未立即回应置评请求。

编辑点评

此次美国防部与Anthropic的法律对峙,凸显了人工智能技术在国家安全应用中的伦理与控制边界问题。美国军方担忧AI公司基于商业或道德准则干预战时系统,这一风险在现代战争高度依赖自主系统的背景下尤为敏感。同时,该案涉及第一修正案权利与国家军事主权的冲突,具有深远的法律先例意义。若国防部胜诉,可能为未来军用AI合同设定更严格的合规标准,限制企业自主权;若Anthropic胜诉,则可能推动建立更透明的军民AI合作框架。该事件也反映出全球科技企业在政府安全审查中日益面临的合规压力,尤其在中美科技竞争加剧背景下,AI技术的‘伦理红线’与‘国家安全’之间的张力将持续成为国际关注焦点。

相关消息:https://techcrunch.com/2026/03/18/dod-says-anthropics-red-lines-make-it-an-unacceptable-risk-to-national-security/
当日日报:查看 2026年03月18日 当日日报