← 返回

OpenAI与五角大楼达成AI军用协议 引发行业争议

2026年3月2日,OpenAI首席执行官山姆·阿尔特曼宣布公司已与美国国防部(特朗普政府称其为‘战争部’)达成新协议,声称保留了禁止国内大规模监控和自主致命武器的红线。然而,行业人士和前员工质疑该协议实为妥协,因其允许‘任何合法用途’,而美国政府过去曾以法律为依据实施大规模监控。相比之下,Anthropic因拒绝类似条款被五角大楼列为供应链风险,面临联邦机构禁用。OpenAI的技术防护措施如分类器和云部署被指作用有限,无法有效阻止军方在法律框架内使用其技术进行监控或武器系统开发。此举引发全球对AI军事化、隐私权及科技企业伦理责任的广泛讨论。

OpenAI与五角大楼达成AI军用协议 引发行业争议

2026年3月2日,OpenAI首席执行官山姆·阿尔特曼宣布,公司已与美国国防部(DoD)就AI技术军用达成新协议。阿尔特曼称,协议“反映了公司两项核心安全原则:禁止国内大规模监控和确保人类对武力使用负责,包括自主武器系统”。他强调,五角大楼同意这些原则,并将其纳入法律与政策框架。

然而,行业人士迅速质疑该声明。据The Verge援引消息人士称,五角大楼并未让步,OpenAI实质上接受“任何合法用途”的条款,允许美军在法律框架内使用其技术进行大规模监控。该条款为美国政府过去实施的多项监控计划提供了法律依据,包括9·11事件后扩大化的国家安全监控体系,以及2013年爱德华·斯诺登揭露的PRISM项目。

OpenAI发言人凯特·沃特斯称,协议禁止“批量、无限制或泛化方式收集或分析美国公民数据”,并强调所有情报活动必须符合《第四修正案》《1947年国家安全法》《1978年外国情报监视法》及《行政命令12333》等现有法律。但批评者指出,这些法律曾被用于合理化大规模监控,且“无限制”“泛化”等措辞本身不构成绝对禁止,为军方留下操作空间。

与此同时,Anthropic因拒绝类似条款被五角大楼列为“供应链风险”,并被特朗普政府下令联邦机构禁用其AI产品。Anthropic创始人达里奥·阿莫迪表示,当前AI技术尚不具备可靠地支持自主致命武器的能力,但未来愿意与国防部合作研发。OpenAI则要求五角大楼将该协议条款推广至所有AI公司,并称“我们认为所有人都应接受”——此举被视作对Anthropic的间接批评。

技术层面,OpenAI声称将部署分类器和云架构以确保红线不被逾越。但消息人士称,分类器无法验证人类是否在最终攻击决策中参与,也无法区分单次请求与系统性监控。此外,即使AI模型不直接参与“扣动扳机”,其在云端处理大量数据、构建个人行为模式的能力,仍可能为军事行动提供关键支持。

尽管OpenAI强调“仅遵循当前法律”,但过去美国政府曾通过重新解释法律扩大权力,如利用《国际紧急经济权力法》实施全球关税。在此背景下,OpenAI的“合法即允许”原则被批为缺乏实质性约束。该协议引发科技界对AI伦理、隐私权及军民融合边界的广泛讨论。

编辑点评

此次OpenAI与五角大楼的协议标志着AI技术军事化进入新阶段,其影响远超美国本土。在当前全球AI军备竞赛背景下,美国政府通过‘合法用途’条款将AI监控和自主武器系统纳入现有法律框架,实质上为未来大规模监控和自动化战争开辟了先例。这一做法可能被其他国家效仿,从而加速全球AI军事化趋势,加剧地缘政治紧张。

OpenAI与Anthropic的分歧凸显科技企业面临的核心伦理困境:在国家利益与公民权利之间如何平衡?OpenAI选择依赖现有法律,而Anthropic坚持技术伦理红线。这种分化将影响全球AI公司的发展路径,可能推动形成“安全优先”与“合规优先”两大阵营。值得注意的是,尽管Anthropic被美国政府打压,其公众支持度反而上升,显示社会对AI透明度与伦理责任的高度关注。

从长远看,若各国普遍采用“合法即允许”的AI军用原则,将挑战国际人道法和隐私权基础。OpenAI的云架构和分类器技术虽具前瞻性,但其局限性表明,技术防护无法替代制度性约束。未来国际社会可能需制定更具约束力的AI军控协议,类似于《禁止生物武器公约》或《化学武器公约》,以防止AI技术被滥用。此次事件或成为全球AI治理的转折点。

相关消息:https://www.theverge.com/ai-artificial-intelligence/887309/openai-anthropic-dod-military-pentagon-contract-sam-altman-hegseth
当日日报:查看 2026年03月02日 当日日报