OpenAI称与Anthropic共享军事AI使用红线
OpenAI首席执行官山姆·阿尔特曼表示,他支持竞争对手Anthropic对军事使用AI设定的“红线”,即禁止用于国内大规模监控或全自动武器系统。此举发生在五角大楼要求Anthropic在2026年2月27日美东时间下午5:01前取消相关限制,否则可能终止其高达2亿美元的合同,并威胁动用《国防生产法》(DPA)。
阿尔特曼在周五接受CNBC采访时表示,他不认为五角大楼应以DPA威胁AI公司,但强调企业应与军方合作,前提是“符合法律保护”并遵守“少数红线”,这些红线与Anthropic一致,且其他公司亦独立认同。
据知情人士透露,阿尔特曼在周四晚向员工发送内部备忘录,称OpenAI正与五角大楼谈判,寻求在部署其AI模型于涉密系统时,保留不用于美国国内大规模监控或全自动武器系统的限制。该消息最初由《华尔街日报》报道。
五角大楼未回应关于阿尔特曼言论的置评请求。
Anthropic首席执行官达里奥·阿莫迪在周四发表长文,拒绝让步。他表示:“我们不能在良知上屈服于其要求。”他强调,军事决策权属于“战争部”(五角大楼更名后的官方称谓),而非私营企业,但国内大规模监控和全自动武器“超出了当前技术安全与可靠性的边界”。
五角大楼负责研究与工程事务的副部长埃米尔·迈克尔在X平台回应,指责阿莫迪“说谎”并有“上帝情结”,称其“妄图控制美军”,并强调“战争部将始终遵守法律,但不会屈从于任何一家营利性科技公司的任性要求”。
迈克尔在CBS新闻采访中补充,联邦法律和五角大楼政策已禁止AI用于国内大规模监控和全自动武器。
美国战略与国际问题研究中心工业基础中心主任杰里·麦金恩指出,此类争端在五角大楼承包商中极为罕见。他强调,通常承包商无权规定其产品如何被使用,但人工智能作为新兴且未经充分测试的技术,使得此次公开争端“非常不寻常”,反映了AI治理的复杂性。
编辑点评
此次OpenAI与五角大楼的互动,标志着AI技术治理进入新阶段。企业试图通过设定‘红线’对政府使用AI施加伦理约束,而政府则强调法律权限与国家安全优先。这不仅是技术问题,更是权力分配与信任机制的深层博弈。美国政府动用《国防生产法》威胁AI公司,凸显其对战略技术控制的紧迫感,但也可能削弱企业创新自主性。若美国军方在AI部署上失去私营部门支持,将影响其技术优势。同时,此举可能激励其他国家效仿,推动全球AI军用监管框架的建立。长期看,AI伦理与国家安全的平衡将成为国际技术治理的核心议题。