OpenAI首席执行官奥特曼称愿协助缓和与五角大楼紧张关系 员工联署支持Anthropic
OpenAI首席执行官山姆·奥特曼于2026年2月25日向公司员工发送内部备忘录,表示希望OpenAI“尝试帮助缓解”与竞争对手Anthropic及美国国防部之间的紧张局势。奥特曼在备忘录中重申,公司反对将人工智能用于大规模监控或自主致命武器,并强调人类应在高风险自动化决策中保留控制权,称这些是公司的“主要红线”。
目前,Anthropic需在美东时间2026年2月26日17:01前决定是否同意美国国防部无限制使用其AI模型。Anthropic要求获得保障,确保其技术不会用于完全自主武器或针对美国公民的国内大规模监控,但五角大楼尚未让步。
奥特曼的内部信件旨在表明OpenAI与Anthropic在AI安全边界上立场一致。此前,约70名OpenAI员工联署公开信《我们不会分裂》,呼吁在面对五角大楼压力时建立“共同理解与团结”。
奥特曼在2026年2月26日接受CNBC采访时表示:“尽管我与Anthropic存在分歧,但我基本信任该公司,认为他们真正重视安全,且支持我们的作战人员。”他补充称:“我不确定事情将如何发展。”
OpenAI于2025年获得五角大楼2亿美元合同,允许其模型在非机密场景中使用。Anthropic则是首个将AI模型整合进机密网络的实验室。
奥特曼表示,OpenAI正探索在符合公司原则的前提下,与五角大楼达成在机密环境中部署模型的协议,公司将部署技术防护措施和人员以确保系统正常运行。他提出,合同应涵盖所有合法且适合云计算部署的用途,但排除国内监控和自主进攻性武器等场景。
奥特曼还透露,公司近期已就此议题召开多次会议,尚未作出最终决定,安全团队将于2026年2月26日进一步讨论。
“在这种情况下,我重视做正确的事,而非表面上强硬但虚伪的容易之事,”奥特曼在备忘录中写道,“但我意识到短期内这可能对我们不利,且情况复杂、背景多元。”
CNBC记者凯特·鲁尼对本报道有贡献。
编辑点评
此次事件凸显人工智能伦理与国家安全之间的深层张力。OpenAI与Anthropic作为全球最具影响力的AI企业,其对军用AI的立场直接牵动全球科技治理格局。奥特曼的表态不仅是企业战略调整,更是对AI技术边界的一次公开表态,可能推动美国军方在AI应用上与科技公司重新谈判安全框架。此举若成例,或促使其他国家效仿,形成AI军用伦理的国际标准。同时,员工联署公开信反映出科技公司内部对AI军事化高度敏感,预示未来科技企业或更主动介入政策制定。从地缘政治看,美国在AI军备竞赛中的领先地位可能因企业伦理约束而放缓,影响中美等大国在AI军用领域的竞争态势。长远而言,这一事件可能成为全球AI治理从技术竞争转向伦理规范的转折点。