OpenAI机器人团队高级成员因对五角大楼AI合作存疑辞职
OpenAI机器人团队成员凯特琳·卡利诺夫斯基(Caitlin Kalinowski)于2026年3月8日宣布辞职,原因在于对公司与美国国防部(Pentagon)近期达成的AI合作项目存在原则性担忧。
卡利诺夫斯基在社交媒体上表示,她基于“原则”做出离职决定。她指出,OpenAI在未充分定义AI使用政策边界的情况下,宣布将AI系统部署于国防部安全计算环境中,这一过程缺乏足够的审议。
她在声明中强调:“AI在国家安全中具有重要作用,但无司法监督的美国国内监控、无人自主武器系统在未获得人类授权情况下运行,这些红线应获得更深入的讨论。”
卡利诺夫斯基同时澄清,其批评主要针对决策过程,而非公司高层。她表示对OpenAI首席执行官山姆·阿尔特曼(Sam Altman)及团队有“深厚尊重”,并为共同建立的成果感到自豪。
OpenAI发言人回应称,该协议旨在为负责任的国家安全AI应用提供可行路径,并明确划出“红线”:禁止国内监控和自主武器系统。公司还表示,理解员工对这些问题的强烈观点,将持续与员工、政府、公民社会及全球社区展开对话。
此次辞职发生在AI领域龙头企业竞相向美国政府提供技术的背景下。近期,美国联邦机构已转向OpenAI和谷歌寻求AI系统,与此同时,另一AI公司Anthropic的CEO公开反对将其技术用于国内大规模监控或自主武器,引发与国防部长彼特·赫格塞斯(Pete Hegseth)的公开冲突。后者强调国防部需灵活部署商业AI工具于所有“合法”操作中。
卡利诺夫斯基在OpenAI主要负责机器人团队的扩展,包括招聘与物理基础设施及机械相关AI项目的推进。她在LinkedIn上表示,将暂时休整,但将继续致力于“负责任的物理AI”建设工作。
编辑点评
此事件凸显了全球AI技术发展与国家安全应用之间的伦理与监管张力。OpenAI与五角大楼的合作反映了美国政府加速推进AI军事化应用的战略动向,但也暴露了科技企业内部在技术伦理边界上的深刻分歧。卡利诺夫斯基的辞职不仅是个人职业选择,更象征着科技界对AI武器化、监控化等敏感议题的集体反思。此类事件可能影响其他AI企业与政府合作的模式,推动更透明的政策框架制定。从地缘政治角度看,美国在AI军事化领域的领先探索,或加剧与其他大国在技术军备竞赛中的竞争,同时对全球AI治理标准产生深远影响。长远而言,如何在国家安全需求与技术伦理之间取得平衡,将成为各国政策制定的长期挑战。