← 返回

OpenAI曾禁军用AI 但五角大楼仍通过微软测试模型

OpenAI首席执行官山姆·奥尔特曼因公司与美国军方签署协议引发争议。此前OpenAI员工曾批评该协议,称其政策模糊。2023年OpenAI明确禁止军方使用其AI模型,但五角大楼已通过微软的Azure OpenAI服务进行测试。2024年初,OpenAI更新政策取消军用禁令。2024年12月,OpenAI宣布与Anduril合作开发国家安全任务AI系统,限于非机密工作负载。公司员工对此分歧明显,部分员工担忧模型可靠性及军事应用风险。奥尔特曼称公司无权决定军方如何使用其AI,并有意向北约销售模型。专家指出协议存在法律监控风险,OpenAI已修改条款回应关切。

OpenAI曾禁军用AI 但五角大楼仍通过微软测试模型

OpenAI首席执行官山姆·奥尔特曼近日因公司与美国军方达成合作协议引发争议。此前OpenAI员工批评该协议,称其政策模糊。奥尔特曼在社交媒体上承认该协议“看起来有些草率”。

2023年,OpenAI的使用政策明确禁止军方使用其AI模型。但据两名知情人士透露,五角大楼当时已通过微软Azure OpenAI服务进行测试。微软长期与美国国防部合作,同时也是OpenAI最大投资者,拥有广泛商业化授权权。

当年,OpenAI员工发现五角大楼官员曾进入其旧金山办公室,但因未获授权评论公司事务,相关人士匿名接受采访。部分员工对与军方关联表示担忧,另一些人则对政策适用范围感到困惑,尤其不确定该政策是否约束微软。

OpenAI和微软发言人表示,Azure OpenAI产品不受OpenAI政策约束。微软发言人弗兰克·肖表示:“Azure OpenAI服务自2023年起向美国政府开放,受微软服务条款约束。”微软未说明具体何时向五角大楼提供服务,但指出该服务直到2025年才获准用于“绝密”政府任务。

OpenAI发言人莉兹·布尔乔伊斯称:“AI已在国家安全中发挥重要作用,我们希望参与其中以确保其安全负责任部署。我们已向员工透明沟通,提供定期更新及专门渠道供团队提问。”

2024年1月,OpenAI更新政策,取消对军方使用的全面禁令。部分员工通过《拦截》杂志报道得知该变更。公司管理层随后在全员大会上解释未来将谨慎推进相关工作。

2024年12月,OpenAI宣布与Anduril合作开发用于“国家安全任务”的AI系统。公司提前告知员工该合作范围有限,仅涉及非机密工作负载,与Anthropic与Palantir的机密军事合作形成对比。

2024年秋季,Palantir曾向OpenAI提议参与其“FedStart”计划,被OpenAI拒绝,称风险过高。但目前双方在其他领域仍保持合作。

Anduril合作宣布之际,数十名OpenAI员工加入公开Slack频道讨论对军方合作的担忧。部分员工认为模型尚不足以处理信用卡信息,更不用说战场支援。另一些人则认为Anduril合作表明公司能负责任处理军事伙伴关系。

一名现任OpenAI研究人员表示:“OpenAI目前对广泛机密部署采取‘量两次、切一次’的谨慎态度。员工正积极参与讨论何种国家安全策略符合公司使命。”

此次与五角大楼的新协议在员工中引发分歧。尽管奥尔特曼公开支持Anthropic设定的红线(如禁止用于大规模合法监控或自主武器开发),但外界法律专家认为协议仍可能允许此类活动。

前OpenAI地缘政治团队负责人莎拉·肖克在Substack文章中指出:“最大输家是平民和冲突区民众。由于技术设计和政策的层层不透明,我们对军事AI在战争中的影响理解将严重受限。从头到尾都是黑箱。”

法律与AI研究所高级研究员查理·布洛克告诉WIRED,OpenAI公开评论暗示五角大楼可能被允许实施法律允许的监控,如从第三方购买美国用户数据并用AI分析。OpenAI随后修改协议条款回应该关切,但布洛克强调,公众仍需依赖OpenAI的声明,因无法查看完整协议文本。

OpenAI研究员诺厄姆·布朗在社交媒体上表示:“周末发现原始协议语言留下合理疑问,尤其涉及AI可能实现的新型合法监控。”他称将更深入参与OpenAI政策工作。

距OpenAI取消军用禁令两年多后,公司似乎已接受国防合作。在周二的全员会议上,奥尔特曼透露公司无权决定国防部如何使用其AI软件,并表示有意向北约销售AI模型。

编辑点评

OpenAI与美国军方合作的演变,反映了全球人工智能治理中技术企业与国家权力之间日益复杂的张力。从2023年明确禁用军方到2024年取消禁令并主动拓展国防合作,OpenAI的政策转向揭示了科技企业在国家安全需求与伦理责任之间的艰难平衡。这一变化不仅关乎企业战略,更牵动全球AI军用化趋势。美国作为全球AI技术领导者,其军方与科技巨头的深度绑定,将加速军事智能化进程,可能引发其他国家效仿,从而重塑全球安全格局。

此次事件凸显了AI治理的结构性挑战:技术企业虽宣称“负责任部署”,但其商业利益与国家需求常存在冲突。通过微软Azure平台绕过政策限制,暴露了现有监管框架的漏洞。尤其当AI被用于合法监控(如分析公民数据)时,即便技术应用合法,其社会影响仍可能引发大规模隐私与公民自由争议。这要求国际社会重新审视AI军用的边界与透明度标准。

未来,OpenAI有意向北约销售AI模型,意味着其军事合作将从美国扩展至多国联盟,进一步推动AI武器化全球化。同时,员工内部的分歧也预示着科技企业内部治理将面临更大压力。若缺乏独立监督机制,此类合作可能削弱公众对AI技术的信任。国际社会需推动建立多边AI军控框架,以避免技术竞赛演变为新的安全危机。

相关消息:https://www.wired.com/story/openai-defense-department-ban-military-use-microsoft/
当日日报:查看 2026年03月06日 当日日报