OpenAI公布与美国国防部协议细节 称设有多重安全防护
OpenAI于2026年3月1日发布博客,详细披露其与美国国防部达成的协议内容,强调在部署人工智能模型时设有多重安全防护机制,明确禁止用于大规模国内监控、自主武器系统及高风险自动化决策(如“社会信用”类系统)。
该公司表示,其部署模式采用云API接口,由经过认证的OpenAI人员参与运维,并保留对安全防护体系的完全控制权,同时辅以严格的合同条款保障。OpenAI称,相较于其他公司“减少或移除安全护栏,仅依赖使用政策”的做法,其方案更具系统性和防御深度。
此前,Anthropic与国防部的谈判于周五破裂,总统特朗普随后下令联邦机构在六个月内停止使用Anthropic技术,国防部长Pete Hegseth亦将该公司列为供应链风险。OpenAI则迅速达成协议,引发外界对其安全承诺真实性的质疑。
OpenAI首席执行官Sam Altman承认协议“显然仓促”,并坦言此举导致公司面临舆论反弹,甚至导致Anthropic的Claude在苹果App Store中超越ChatGPT。他解释称,此举旨在缓解政府与科技行业的紧张关系,若成功则“将被视为行业英雄”,否则将被继续批评为“仓促且疏忽”。
Techdirt创始人Mike Masnick指出,协议允许数据收集符合第12333号行政命令,而该命令常被用于通过境外线路收集包含美国公民信息的通信内容,实质上可能绕开国内监控限制。对此,OpenAI国家安全部门主管Katrina Mulligan在LinkedIn上回应称,部署架构比合同语言更重要,通过云API部署可确保模型无法直接集成于武器系统或传感器等作战硬件。
OpenAI在声明中表示,不清楚Anthropic为何未能达成协议,希望更多AI实验室能参与类似合作框架。
编辑点评
此次OpenAI与美国国防部的协议,标志着人工智能技术在军事与国家安全领域的应用进入新阶段。尽管OpenAI强调其多重安全防护机制,但协议内容仍引发对AI技术被用于大规模监控或自主武器系统的担忧。尤其在第12333号行政命令框架下,数据收集的边界模糊,可能为间接监控提供法律漏洞,这凸显出AI伦理与国家安全政策之间的深层张力。
该事件也反映出美国政府对AI技术控制权的迫切需求。在Anthropic谈判破裂后,政府迅速转向OpenAI,显示其对技术供应安全的优先考量。此举可能推动更多AI企业主动调整技术边界以符合国家安全要求,但也可能加剧行业内部竞争与技术标准分化。
从全球视角看,美国AI军用部署的加速将对国际军备竞赛产生深远影响,尤其在自主武器系统领域,可能引发其他国家跟进或加强反制。同时,OpenAI的“云API”部署模式若成为行业标准,或将重塑AI技术出口与国际合作的规则框架,进一步巩固美国在AI安全治理中的主导地位。
未来,AI军事应用的伦理边界、法律监管及跨国协调将成为国际社会关键议题。此次协议不仅是技术合作,更是一场关于技术主权、安全控制与人权平衡的全球博弈开端。