← 返回

Anthropic拒绝军方移除AI安全限制 被指面临被禁用风险

美国国防部与AI公司Anthropic因AI技术军事应用安全限制问题陷入僵局。Anthropic首席执行官达里奥·阿莫迪拒绝军方要求其放宽对大规模监控及完全自主武器使用的限制,称此类用途“完全非法”。军方则坚持技术使用由政府决定,要求公司允许其“用于所有合法目的”,并设定周五下午5:01前的最后期限,否则将终止合作并将其列为“供应链风险”。该争端涉及价值2亿美元的合同及美国军方对先进AI工具的依赖,可能引发法律挑战及对AI监管的广泛讨论。

Anthropic拒绝军方移除AI安全限制 被指面临被禁用风险

美国国防部与AI公司Anthropic因AI技术军事应用安全限制问题陷入僵局。Anthropic首席执行官达里奥·阿莫迪拒绝军方要求其放宽对大规模监控及完全自主武器使用的限制,称此类用途“完全非法”。

军方则坚持技术使用由政府决定,要求公司允许其“用于所有合法目的”,并设定周五下午5:01前的最后期限,否则将终止合作并将其列为“供应链风险”。

阿莫迪在声明中表示,Anthropic支持AI用于捍卫美国及其他民主国家,但反对将技术用于国内大规模监控或完全自主武器系统,称这些用途“超出当前技术安全可靠操作的边界”,且“从未包含在与国防部的合同中”。

据知情人士透露,国防部长彼特·赫格塞斯在周二与阿莫迪会面时威胁,若公司不妥协,将取消其2亿美元合同,并可能将其列入军方供应链禁用名单。国防部发言人肖恩·帕内尔在X平台发文称,军方无意使用AI进行非法监控或开发无须人工干预的自主武器,并指责相关报道为“媒体左翼捏造的虚假叙事”。

Anthropic称,军方提供的新合同条款“在防止Claude用于监控美国人或自主武器方面几乎没有进展”,且附加条款允许军方随意忽略安全限制。公司表示愿继续谈判,并承诺保障军方作战人员的技术连续性。

专家指出,将Anthropic列为“供应链风险”极为罕见,此前仅用于外国对手技术(如华为)。此举或禁止其他承包商在军方项目中使用Anthropic工具,甚至全面禁止其技术使用,对公司造成重大打击。军方还威胁援引《国防生产法》强制移除AI限制,此举亦属非常规手段,通常仅用于紧急危机。

分析认为,若冲突升级,公司极可能采取法律手段应对。尽管该合同占Anthropic年收入140亿美元的比重较小,但其为首个被允许用于机密军事应用的AI模型,其地位独特,争端或引发对AI军事化、企业伦理与政府控制边界的关键讨论。

编辑点评

此次 Anthropic 与美国国防部的冲突,标志着全球AI治理进入新阶段。技术公司首次公开挑战政府对AI军事应用的绝对控制权,凸显了AI伦理与国家主权之间的深层矛盾。在地缘政治紧张加剧、AI军事化加速的背景下,美国军方试图通过法律与行政手段强制技术公司放弃安全限制,反映出其对AI技术的战略依赖已超越传统采购关系,演变为系统性控制需求。此举若成例,可能引发全球AI企业对政府干预的普遍警惕,影响跨国技术合作。

从国际视角看,该事件可能推动其他国家在AI军事化问题上采取更严格的监管态度,尤其是在民主国家之间。中国等国家已强调AI发展需遵循人类福祉与安全原则,此事件或进一步强化其立场。同时,若美国援引《国防生产法》强制执行,将开创政府干预商业AI伦理的先例,可能引发国际社会对技术主权与人权保护的广泛争议。

更深远的影响在于,此次冲突暴露了AI治理的制度空白。目前全球缺乏统一的AI军事应用准则,企业与政府在责任边界上缺乏共识。未来,国际社会或需建立类似《禁止生物武器公约》的AI军控机制。若此僵局演变为法律诉讼,其判决可能为全球AI伦理与国家安全关系提供重要判例,对技术企业、政府及国际组织的未来决策产生长期影响。

相关消息:https://www.npr.org/2026/02/26/nx-s1-5727847/anthropic-defense-hegseth-ai-weapons-surveillance
当日日报:查看 2026年02月27日 当日日报