← 返回

OpenAI机器人部门负责人辞职 称与五角大楼合作“缺乏治理框架”

OpenAI机器人部门负责人在社交媒体上宣布辞职,称公司与美国五角大楼达成的AI合作项目“仓促推进,未明确定义治理框架”,并强调反对无司法监督的美国国内监控及无人授权的致命自主武器系统。该负责人表示此举基于原则,而非人事问题,并对团队及OpenAI联合创始人Sam Altman表示尊重。OpenAI回应称,其与五角大楼的合作明确划定了红线,禁止国内监控和自主武器,公司将继续与各方讨论相关议题。该负责人此前曾任职于Meta,2024年末加入OpenAI。

OpenAI机器人部门负责人辞职 称与五角大楼合作“缺乏治理框架”

OpenAI机器人部门负责人于当地时间2026年3月7日宣布辞职,称公司与美国五角大楼达成的AI合作项目“仓促推进,未明确定义治理框架”,并强调反对无司法监督的美国国内监控及无人授权的致命自主武器系统。

该负责人在推文中表示:“AI在国家安全中扮演重要角色,但无司法监督的美国国内监控和无人授权的致命自主武器,是需要更审慎讨论的底线。”其强调此举基于原则,而非针对团队成员,并对OpenAI联合创始人Sam Altman及团队表达了尊重。

在后续推文中,该负责人进一步解释:“我的问题是,该合作公告在治理框架未明确的情况下仓促发布,这首先是治理问题。这些议题过于重要,不应匆忙推进。”当被问及OpenAI签署五角大楼协议后有多少员工离职时,其回应称“无法披露内部细节”。

据Engadget报道,该负责人此前曾在Meta工作,于2024年末加入OpenAI。OpenAI方面确认了其辞职,并在声明中表示理解公众对此类议题的强烈看法,公司将继续与相关方展开对话。OpenAI强调,其与五角大楼的合作明确划定了红线:“不支持国内监控,不支持自主武器系统”,并认为该协议为AI在国家安全领域的负责任使用提供了可行路径。

该事件引发对AI军事化、技术伦理及企业治理等议题的广泛讨论,特别是在大国竞争背景下,AI技术在国防领域的应用正面临日益严峻的伦理与法律挑战。

编辑点评

此次OpenAI机器人部门负责人辞职事件,凸显了AI技术在军事与国家安全领域应用所面临的深层治理困境。在大国科技竞争与地缘政治紧张加剧的背景下,AI技术的军事化已成为全球关注焦点。该负责人所强调的“无司法监督监控”与“致命自主武器”问题,直指当前AI军事应用中缺乏透明度与伦理约束的核心矛盾。

OpenAI作为全球AI领域最具影响力的公司之一,其与五角大楼的合作本身就具有高度象征意义。此次事件反映出,在技术快速迭代的同时,企业、政府与公众之间在AI治理框架上的认知鸿沟。尽管OpenAI声明其合作设置了“红线”,但该负责人指出的“仓促推进”表明,在实际操作中,伦理审查与法律框架可能滞后于商业与战略决策。

这一事件可能推动全球范围内对AI军事用途的监管讨论,尤其是在联合国、欧盟及主要科技大国之间。未来,如何平衡国家安全需求与技术伦理、如何建立跨国AI治理机制,将成为国际社会必须面对的紧迫议题。同时,企业内部的伦理审查机制也将面临更严格审视,科技公司不再能仅以“技术中立”回避责任。

从长远看,此次辞职或成为AI治理史上的标志性事件,促使全球政策制定者重新思考AI在国防领域应用的边界,以及如何构建包容多方利益相关者、具有法律约束力的治理结构。

相关消息:https://hardware.slashdot.org/story/26/03/07/2213221/openais-head-of-robotics-resigns-says-pentagon-deal-was-rushed-without-the-guardrails-defined?utm_source=rss1.0mainlinkanon&utm_medium=feed
当日日报:查看 2026年03月08日 当日日报