← 返回

OpenAI与谷歌员工联名提交法庭支持简报 力挺Anthropic对抗美国政府

超过30名来自OpenAI和谷歌的员工,包括谷歌DeepMind首席科学家杰夫·迪恩,于2026年3月9日提交法庭支持简报,支持Anthropic公司针对美国国防部等联邦机构的诉讼。该诉讼源于五角大楼将Anthropic列为“供应链风险”实体,限制其与军方承包商合作。简报指出,此举将损害美国在人工智能领域的产业与科研竞争力,并抑制对前沿AI系统的专业讨论。支持者强调,Anthropic要求禁止AI用于大规模国内监控和自主致命武器开发的条款合理且必要。OpenAI首席执行官山姆·阿尔特曼亦公开批评该决定,称其对行业和国家不利。OpenAI随后迅速与美军签署合同,被部分人士视为趁机获利。

OpenAI与谷歌员工联名提交法庭支持简报 力挺Anthropic对抗美国政府

超过30名来自OpenAI谷歌的员工,包括谷歌DeepMind首席科学家杰夫·迪恩,于2026年3月9日提交法庭支持简报,支持Anthropic公司针对美国国防部等联邦机构的诉讼。

该诉讼源于五角大楼将Anthropic列为“供应链风险”实体,此举严重限制其与军方承包商合作。该制裁在Anthropic与五角大楼的谈判破裂后生效。Anthropic正寻求临时限制令,以便在诉讼期间继续与军事伙伴合作。此次简报明确支持这一申请。

简报签署者包括谷歌DeepMind研究人员王征东、亚历山大·马特·特纳、诺亚·西格尔,以及OpenAI研究人员吴嘉伟、帕梅拉·米什金、罗曼·诺瓦克等。该简报以个人身份签署,不代表其所属公司立场。

简报指出,五角大楼对Anthropic的黑名单决定“引入了行业的不可预测性,削弱了美国的创新与竞争力”,并“抑制了关于前沿AI系统利弊的专业讨论”。简报强调,五角大楼本可直接终止合同,而非实施制裁。

简报还指出,Anthropic提出的使用限制要求——包括禁止AI用于大规模国内监控和自主致命武器开发——是合理且必要的关切。简报称:“在缺乏公共法律的情况下,AI开发者对系统使用所设定的合同与技术要求,是防止其灾难性滥用的重要保障。”

OpenAI首席执行官山姆·阿尔特曼在社交媒体上表示,对Anthropic实施SCR(供应链风险)指定“将对我们的行业和国家造成严重损害”,并称“这是国防部的一个非常糟糕的决定,希望他们予以撤销”。

在与五角大楼关系恶化后,OpenAI迅速与美军签署合同,此举被部分人士批评为趁机获利。

编辑点评

此次事件反映出美国人工智能生态系统内部的深层矛盾:军方与AI企业之间在技术使用边界、伦理规范与国家安全之间的冲突日益加剧。五角大楼将Anthropic列入供应链风险名单,表面上是出于安全考量,实则暴露了政府在监管前沿技术时的制度滞后与决策不透明。OpenAI与谷歌员工以个人身份提交支持简报,凸显了技术精英对政府过度干预的担忧,也表明AI行业内部对技术自主权与伦理底线的集体捍卫。

此举的国际影响不容忽视。美国作为全球AI领导国,其政策走向直接影响全球AI治理格局。若政府对领先企业实施任意制裁,将削弱美国在全球AI竞争中的创新动力,可能促使其他国家(如中国、欧盟)加速构建独立的AI生态体系。此外,企业间对军方合同的争夺,也凸显了AI技术在国家安全中的战略价值,未来或引发更激烈的“AI军备竞赛”。

长远来看,该事件或将推动美国建立更清晰的AI监管框架。当前缺乏统一法律约束,迫使企业通过合同和技术手段自我规制。若政府持续采取模糊、惩罚性措施,可能引发企业集体抵制,甚至形成行业联盟对政府施压。这不仅关乎Anthropic一家公司的存亡,更触及美国科技自主与全球领导地位的核心议题。

相关消息:https://www.wired.com/story/openai-deepmind-employees-file-amicus-brief-anthropic-dod-lawsuit/
当日日报:查看 2026年03月10日 当日日报