Anthropic首席执行官称公司无法良心上接受五角大楼要求
2026年2月26日,人工智能公司Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)公开表示,该公司无法在良知上接受美国国防部提出的某些要求。阿莫迪强调,Anthropic对人工智能系统的开发与部署负有伦理责任,若强制用于特定军事用途,可能违背公司的核心价值观。
据知情人士透露,美国国防部曾要求Anthropic提供特定AI模型用于战场决策支持或情报分析,但该公司认为此类应用存在不可控风险,尤其涉及自动化杀伤系统或战略误判。阿莫迪在一次内部会议上指出:“我们不能在违背道德原则的前提下参与可能造成严重后果的项目。”
此表态引发科技界与政策圈对AI军事化边界问题的广泛讨论。分析人士指出,私营AI企业在国家安全需求与技术伦理之间面临日益严峻的平衡挑战。尽管美国政府推动AI在国防领域的应用,但企业层面的抵制可能影响未来政策的推进节奏。
事件发生在2026年2月26日晚间,正值美国军方加速AI整合之际,Anthropic的立场被视为科技公司对军事合作的谨慎信号。
编辑点评
此事件凸显了全球AI治理中的核心矛盾:技术发展与伦理约束之间的张力。在军事领域,AI的潜在优势如实时情报处理、自动化决策等备受各国关注,但其滥用风险,特别是自主武器系统的伦理和法律问题,已成为国际社会的关切焦点。Anthropic的表态反映了私营科技企业作为技术主体,正在主动参与技术伦理框架的构建,而非被动接受政府指令。这可能预示未来AI监管模式将出现‘企业自律+政府引导’的混合路径。从地缘政治角度看,美国在AI军事化方面的推进速度若受企业抵制影响,可能削弱其战略优势,同时推动其他国家加快自主AI研发。长远来看,此类事件或将促成全球范围内的AI军控谈判,类似核不扩散机制,以防止技术失控。