Anthropic首席执行官拒绝五角大楼AI系统无限制访问要求
2026年2月26日,Anthropic首席执行官达里奥·阿莫迪在声明中表示,出于道德考量,公司无法同意五角大楼要求对其AI系统进行无限制访问。
阿莫迪指出:“Anthropic理解军事决策应由国防部而非私营企业作出。但在特定情况下,我们相信AI可能损害而非捍卫民主价值观。部分应用也超出当前技术安全可靠操作的范畴。”
他明确列出两项限制:对美国民众的大规模监控,以及完全自主、无需人类介入的武器系统。
五角大楼则认为,其有权在所有合法用途中使用Anthropic的模型,不应受私人公司限制。国防部长彼特·黑格塞斯已设定2月27日17:01(美国东部时间)的最后期限,要求Anthropic配合,否则将采取措施,包括将其列为供应链风险(通常用于外国对手)或援引《国防生产法》(DPA)强制执行。
阿莫迪指出,这两种威胁存在矛盾:“一方面将我们标记为安全风险,另一方面又将Claude标记为国家安全的关键组成部分。”
他强调,国防部有权选择与其愿景最契合的承包商,但鉴于Anthropic技术对美军的显着价值,希望对方重新考虑。
目前,Anthropic是唯一一家具备军事分级系统、可直接为美军提供服务的前沿AI实验室,尽管五角大楼正推动xAI准备承担类似任务。
阿莫迪表示:“我们首选是在保障两项安全措施的前提下继续为国防部及前线人员服务。若国防部决定终止合作,我们将协助实现平稳过渡,避免对军事规划、行动或其他关键任务造成干扰。”
换句话说,他表明:“我们可以和平分手,无需激烈对抗。”
编辑点评
此事件凸显AI技术在国家安全领域的伦理与权力边界之争。Anthropic拒绝无限制军事访问,反映科技企业对技术滥用的警惕,尤其是在自主武器与大规模监控等涉及人权和民主价值的问题上。五角大楼的强硬姿态,包括可能援引《国防生产法》,显示美国政府对AI军事化应用的迫切需求,也反映出政府与私营部门在技术控制权上的紧张关系。
从国际视角看,此类技术伦理争议可能影响全球AI治理框架的建立。若美国军方推动完全自主武器系统,可能引发其他国家效仿,加剧军备竞赛。同时,科技公司对政府的“道德抵抗”或成为未来技术主权讨论的重要范式——即企业是否应拥有对AI军事用途的“否决权”。
长远来看,此事件或推动美国及其他国家重新审视AI在国家安全中的角色,促使更明确的法律与伦理框架出台。若政府坚持强制执行,可能削弱科技企业对军方合作的意愿,影响军事创新速度;若企业成功捍卫底线,则可能树立科技伦理在国家政策中的优先地位。