← 返回

谷歌员工致信皮柴要求拒绝军方在机密环境使用AI模型

超过600名谷歌员工联名致信首席执行官桑达尔·皮柴,要求公司禁止美国国防部在机密环境中使用其人工智能模型。信中指出,若不拒绝此类机密任务,谷歌可能在不知情情况下卷入潜在危害,且无法阻止。组织者称,签署者中包括来自DeepMind实验室的多名高级管理人员,如总监、副总裁等。该事件背景是,Anthropic公司正与五角大楼因“供应链风险”标签展开法律纠纷,因拒绝放宽军方使用其AI模型的限制。同时,谷歌与五角大楼正讨论部署Gemini AI于机密环境的协议,而微软已与军方达成类似合作,OpenAI亦于2月重新谈判了军方合作协议。

谷歌员工致信皮柴要求拒绝军方在机密环境使用AI模型

超过600名谷歌员工联名致信首席执行官桑达尔·皮柴,要求公司禁止美国国防部在机密环境中使用其人工智能模型。该信件由《华盛顿邮报》报道,组织者称,签署者中包括来自谷歌DeepMind人工智能实验室的多名高级管理人员,如总监、副总裁等,总数超过20人。

信中明确指出:“唯一能确保谷歌不与此类危害相关联的方式,是拒绝任何机密工作负载。否则,此类使用可能在我们不知情或无法阻止的情况下发生。”

该事件背景是,Anthropic公司正与五角大楼因“供应链风险”标签展开法律纠纷,因其拒绝放宽美国军方使用其AI模型的限制。谷歌与五角大楼正在讨论部署其Gemini AI模型于机密环境的协议。目前,微软已与军方达成提供AI服务的协议,OpenAI也在2月宣布与五角大楼重新谈判合作协议。

此举反映出科技行业内部对AI技术军用化的深刻担忧,尤其在涉及国家机密与自主决策系统时,伦理与安全边界问题日益凸显。

编辑点评

此事件标志着科技行业内部对AI军用化问题的集体反思,特别是当AI模型被应用于高度敏感的国家安全领域时,企业伦理责任与政府需求之间的张力日益加剧。谷歌员工的公开信不仅挑战了公司与军方的合作边界,也呼应了Anthropic等公司因拒绝军方宽松使用条款而引发的法律争议。这反映出全球科技界对‘AI武器化’风险的普遍警惕,尤其在高精度自主系统可能影响决策链的背景下。未来,各国政府与科技企业将面临更复杂的治理挑战,包括如何在国防安全与技术伦理之间建立平衡机制。此外,此类事件可能推动国际社会对AI军用的规范性框架构建,如联合国或北约层面的AI安全准则,从而影响全球科技产业的战略布局与合规标准。长期看,这或将重塑AI技术发展的方向,从单纯追求性能转向更注重可解释性、可控性与责任归属。

相关消息:https://www.theverge.com/ai-artificial-intelligence/919326/google-ai-pentagon-classified-letter
当日日报:查看 2026年04月28日 当日日报