OpenAI赢得美国防部合同 美政府暂停使用Anthropic技术
美国国防部与OpenAI达成协议,将部署其人工智能模型于机密军事网络。该协议在白宫下令联邦机构暂停使用竞争对手Anthropic技术后数小时内宣布。
OpenAI首席执行官萨姆·奥尔特曼在周五晚间通过X平台发布消息,确认公司将提供模型进入五角大楼的“机密网络”,并强调国防部“对安全表现出深刻尊重”,愿意在公司运营限制内合作。
同日,国防部长皮特·赫格塞斯将Anthropic列为“国家安全供应链风险”,该标签通常针对外国对手。此举要求所有国防承包商必须证明未使用Anthropic的模型。
与此同时,总统唐纳德·特朗普下令所有联邦机构立即停止使用Anthropic技术,已使用该技术的机构需在六个月内完成过渡。
Anthropic此前于2023年7月与国防部签署价值2亿美元的合同,成为首家在五角大楼机密环境中部署模型的AI实验室。但谈判因公司要求禁止其技术用于自主武器或国内大规模监控而破裂。国防部坚持技术应可用于所有合法军事用途。
Anthropic在声明中表示“深感悲伤”,并计划对这一决定提起诉讼。公司警告,此举可能为美国科技企业与政府合作设定不良先例,尤其是在AI合作政治化持续加剧的背景下。
奥尔特曼表示,OpenAI同样禁止国内大规模监控,并在涉及武力使用(包括自动化武器系统)的决策中要求人类承担责任。这些限制已写入新协议。
部分公众对OpenAI的政策转变表示质疑。美国民主党政治人物克里斯托弗·黑尔在X上写道:“我刚刚取消了ChatGPT,购买了Claude Pro Max。一个捍卫美国人民天赋权利,另一个向暴君屈服。”
另有用户评论:“2019年OpenAI:我们永远不会参与武器或监控工具开发。2026年OpenAI:战争部,帮我托管机密云实例。道德弧线崩塌。”
事件凸显美国在人工智能军事应用上的政策转向,以及科技企业与政府在安全、伦理与自主权之间的博弈。
编辑点评
此次美国国防部与OpenAI达成协议,同时对Anthropic实施禁令,标志着美国在AI军事化应用上的战略调整。此举不仅是技术选择,更涉及国家安全、供应链控制与国内政治博弈。将Anthropic列为“供应链风险”具有强烈象征意义,可能被解读为对特定AI企业政治立场或治理模式的打压,而非单纯技术评估。此举或加速美国政府对AI技术企业的“忠诚度审查”,影响未来科技公司与政府合作的边界。从长远看,该事件可能推动全球AI治理模式分化,美国内部对AI伦理与自主武器的分歧也将持续发酵。OpenAI虽强调保留伦理限制,但其进入机密网络仍引发公众对其“原则妥协”的质疑,这或影响其品牌信任。未来,美国的AI监管将更趋政治化,技术企业必须在国家安全、商业利益与公众信任间寻求平衡。