← 返回

OpenAI与谷歌员工联名支持Anthropic起诉美国防部

2026年3月9日,超过30名OpenAI和谷歌DeepMind员工联署提交法庭简报,支持Anthropic公司对美国国防部(DOD)提起的诉讼。此前,美国防部因Anthropic拒绝允许其AI技术用于大规模监控美国人或自主武器系统,将其列为供应链风险实体。员工们指出,此举属于不当滥用权力,可能影响美国在人工智能领域的竞争力,并抑制行业对AI风险与收益的公开讨论。简报强调,若政府对合同条款不满,应通过终止合同而非施加惩罚性标签。同时,DOD在作出该决定后迅速与OpenAI签订协议,引发部分员工抗议。此案凸显AI伦理、政府监管与企业自主权之间的深层矛盾。

OpenAI与谷歌员工联名支持Anthropic起诉美国防部

2026年3月9日,超过30名OpenAI谷歌DeepMind员工联署提交法庭简报,支持Anthropic公司对美国国防部(DOD)提起的诉讼。该简报在Anthropic于上周末对DOD及其他联邦机构提起两项诉讼后数小时内提交,被视作业界对政府AI监管政策的集体回应。

据法庭文件显示,美国防部将Anthropic列为“供应链风险”实体,通常用于标识外国对手。此举缘于Anthropic拒绝允许DOD将其AI技术用于对美国公民的大规模监控或自主武器系统。DOD曾主张,其应能将AI用于任何“合法”目的,不受私人承包商限制。

联署简报指出,若DOD对与Anthropic的合同条款不满,本可选择终止合同并转向其他领先AI公司。事实上,DOD在宣布对Anthropic的标签后,迅速与OpenAI签署协议,此举引发部分OpenAI员工抗议。

简报强调,允许政府以惩罚性措施对待领先AI企业,将严重削弱美国在人工智能领域的工业与科学竞争力,并抑制行业对AI系统风险与收益的公开讨论。同时,简报支持Anthropic设定的伦理红线,认为在缺乏公共法律框架的情况下,开发者的技术与合同限制是防范AI灾难性滥用的关键屏障。

多位联署员工此前已签署公开信,呼吁DOD撤销该标签,并敦促各自公司领导支持Anthropic,拒绝AI系统的单方面军事化使用。

此事件引发对AI技术监管边界、政府权力与企业自主权之间平衡的广泛讨论,标志着AI伦理与国家安全议题的进一步交织。

编辑点评

此事件凸显人工智能发展进入深水区,技术自主权与国家安全需求之间的张力日益加剧。美国防部将Anthropic列为供应链风险,不仅是一次行政决定,更是一次对AI企业技术伦理底线的直接挑战。若政府可因企业设定使用限制而施加惩罚,将严重削弱企业在AI系统中建立安全与伦理护栏的动力,从而威胁长期技术安全。

此举也暴露出美国当前缺乏统一AI监管框架的弊端。在无明确法律约束下,政府与企业之间的合同条款成为主要约束机制,但合同可被单方面终止或绕过,导致企业难以有效抵御政府压力。OpenAI与谷歌员工的集体发声,反映了科技界对“技术自主”与“伦理责任”的双重坚守,也揭示了大型科技公司内部在支持政府军事化AI与维护技术伦理之间的深层矛盾。

从国际角度看,此事件可能影响全球AI治理模式。若美国政府以“国家安全”为由压制本国AI企业伦理限制,将为其他国家提供“以安全为名限制AI自由”的先例。同时,它也推动全球对AI监管立法的紧迫性,凸显建立跨国AI治理标准的必要性。未来,AI企业或将在国家安全诉求与技术伦理之间,面临更复杂的全球博弈。

相关消息:https://techcrunch.com/2026/03/09/openai-and-google-employees-rush-to-anthropics-defense-in-dod-lawsuit/
当日日报:查看 2026年03月10日 当日日报