OpenAI首席执行官奥尔特曼称将与Anthropic划清相同红线 阻碍国防部AI部署
OpenAI首席执行官山姆·奥尔特曼在致员工的备忘录中明确表示,公司将遵守与竞争对手Anthropic相同的AI使用红线,即禁止AI技术用于大规模监控或自主致命武器系统。这一立场与当前美国国防部与Anthropic之间的高风险争端形成呼应。
奥尔特曼强调,尽管存在上述限制,OpenAI仍致力于与国防部达成协议,允许其ChatGPT模型用于敏感军事场景。当前,Anthropic的Claude是首个被整合进美军最机密工作的AI模型。若国防部推进将Anthropic列为“供应链风险”并寻求替代方案,OpenAI或成为潜在接替者。
然而,若谷歌等其他领先科技公司也采取类似立场,将极大增加国防部部署替代AI模型的复杂性。此举标志着美国主要AI企业首次集体对政府使用其技术设定明确边界,可能重塑军用AI发展路径。
此次表态反映出AI技术伦理与国家安全需求之间的紧张关系,也凸显了私营科技公司在国家军事项目中的关键角色和影响力。
编辑点评
此次奥尔特曼的表态具有深远意义,标志着美国科技企业正在从被动响应转向主动设定AI军事化使用边界。此举不仅是对Anthropic与国防部冲突的回应,更反映出科技界对AI伦理风险的高度警觉。若谷歌、微软等企业跟进,将构成对美国军方AI部署计划的系统性挑战,可能延缓或改变美军AI战略的实施路径。
从地缘政治角度看,美国在AI军用化领域的进展直接影响全球军事平衡。中国、俄罗斯等国正在加速军事AI研发,美国若因伦理约束而放缓步伐,可能削弱其技术优势。同时,私营企业介入国防决策也引发对国家主权与科技垄断的讨论。
长期来看,科技公司设定的“红线”可能成为国际AI治理的参考框架。未来,各国或将效仿建立类似机制,推动全球AI军事应用的规范发展。这一趋势将重塑军民融合的边界,对国际安全格局产生结构性影响。