Anthropic首席执行官称五角大楼威胁无法改变公司立场
Anthropic公司首席执行官达里奥·阿莫迪于2026年2月24日发表声明,称公司“无法在良知上同意”允许美国国防部无限制使用其人工智能模型。他强调,即使五角大楼发出威胁,公司立场也不会改变。
此举源于近期双方就AI技术使用范围展开的紧张谈判。Anthropic要求获得明确保证,其模型不得用于全自主武器系统或对美国民众进行大规模国内监控。而美国国防部则希望获得在所有合法用途中使用该技术的权限。
阿莫迪在声明中表示:“这是国防部选择最符合其愿景承包商的权力,但鉴于Anthropic技术为美军提供的重大价值,我们希望他们重新考虑。”
五角大楼发言人肖恩·帕内尔同日回应称,国防部“无意”使用Anthropic模型开发全自主武器或进行大规模监控,同时指出此类行为已属非法。他强调,希望公司允许模型用于“所有合法目的”,并称这是“简单而常识性的要求,旨在防止Anthropic危及关键军事行动,甚至危及作战人员安全”。
帕内尔在X平台发文称:“我们不会让任何公司主导我们如何做出作战决策的条款。”目前,双方谈判仍在持续中。
编辑点评
此次事件凸显了人工智能技术在军事领域应用的伦理与安全边界之争。Anthropic作为领先AI企业,拒绝将技术用于自主武器或大规模监控,体现了科技界对‘负责任AI’的坚持。而五角大楼则强调军事自主权,反映出现代国防体系对AI的迫切需求与技术主权的敏感性。这一冲突不仅仅是商业谈判,更是全球AI治理框架下权力与伦理的博弈。若美国国防部强行推进,可能引发其他国家效仿,推动AI军备竞赛;反之,若企业坚持底线,或将促使国际社会加速制定AI武器禁令或监管框架。从长远看,该事件可能成为AI技术伦理标准全球化的关键节点,影响未来军事AI的合规边界与国际合作模式。