OpenAI与美国五角大楼达成协议 允许军方在机密环境中使用其技术
2026年2月28日,OpenAI宣布与美国国防部达成协议,允许军方在机密环境中使用其人工智能技术。OpenAI首席执行官山姆·阿尔特曼表示,该谈判是在五角大楼公开批评Anthropic后才启动的,过程“明显仓促”。
OpenAI在声明中强调,其协议禁止将技术用于自主武器系统和大规模国内监控。阿尔特曼称,公司并未接受Anthropic曾拒绝的相同条款,从而在合同与道德层面取得“双重胜利”。
然而,分析指出,OpenAI的协议基础在于“政府不会违法”的假设,而非设置独立的禁止条款。公司引用了2023年五角大楼关于自主武器的指导方针及美国宪法第四修正案等法律框架。但乔治华盛顿大学政府采购法研究副教授杰西卡·蒂利普曼指出,该协议并未赋予OpenAI类似Anthropic那样的独立禁止权,仅禁止违反现行法律的使用。
Anthropic曾因拒绝将模型用于自主武器和大规模监控而获得广泛支持,包括部分OpenAI员工。批评者认为,以往政府合法但存在争议的监控行为(如爱德华·斯诺登事件)表明,仅依赖法律框架无法充分防止AI技术滥用。
OpenAI称,其第二道防线是保留对模型安全规则的控制权,不会向军方提供去安全化的AI版本。员工博阿兹·巴拉克表示,可将“禁止大规模监控和无人值守武器系统”的红线直接嵌入模型行为中。但公司未说明军用版本与民用版本规则是否存在差异,且在机密环境下六个月内实施仍面临执行挑战。
五角大楼国防部长彼得·赫格塞斯于2月28日晚在X平台发文称,Anthropic“傲慢与背叛”,并重申总统特朗普下令停止与该公司合作。赫格塞斯强调,“国防部必须对Anthropic的模型拥有完全、无限制的访问权,用于所有合法目的”。
此外,赫格塞斯宣布将Anthropic列为供应链风险,禁止任何与美军合作的企业与之开展商业活动。该措施引发法律争议,Anthropic已表示将提起诉讼,OpenAI亦公开反对。
五角大楼计划在六个月内逐步替换当前在机密环境中使用的Anthropic模型Claude,引入OpenAI及xAI的技术。然而,据报Claude在禁令发布数小时后仍被用于伊朗空袭,表明替换过程复杂且充满挑战。
OpenAI内部员工对此次妥协存在分歧,部分人认为这是不可接受的退让。未来需关注公司能否维持员工信任、五角大楼是否能顺利过渡模型,以及AI伦理边界在军事压力下如何演变。
编辑点评
OpenAI与美国国防部达成协议,标志着全球AI军用化进程的重要转折。这一事件不仅反映科技企业与军事机构之间日益加深的互动,更凸显了AI伦理与国家安全之间的结构性张力。OpenAI采用法律框架而非合同禁令的方式,使其在表面上保持道德立场,实则将风险转嫁至政府“依法行事”的假设之上,这在历史上屡次被证明为脆弱的保障。尤其在当前中东局势紧张、美国对伊朗展开空袭的背景下,AI技术的即时军事应用需求远超安全审查能力,加剧了技术伦理的脆弱性。
Anthropic的“道德抵抗”虽赢得公众与部分科技界支持,但被五角大楼定性为“傲慢与背叛”,并面临全面商业封杀,反映出美国政府对AI军用自主权的绝对优先。类似措施若被广泛采纳,将重塑全球AI公司的合规战略,迫使企业在全球安全与伦理之间做出艰难抉择。
更深远的是,此次事件可能成为AI军备竞赛的催化剂。当OpenAI及xAI技术被纳入军事系统,其模型训练数据、决策透明度与责任归属问题将面临前所未有的挑战。若未来发生AI系统误判或失控事件,责任归属将高度模糊,可能导致国际法体系的重构压力。
从地缘政治角度看,美国此举可能引发其他国家加速AI军事化,形成“AI军备竞赛”的新态势。中国、俄罗斯等国或将以此为警示,推动本国AI军事项目提速,全球安全架构面临新一轮不确定性。OpenAI的“妥协”并非终点,而是AI技术与权力博弈的开端,其影响将持续发酵。