OpenAI与谷歌员工支持Anthropic起诉五角大楼
2026年3月9日,人工智能公司Anthropic正式向美国国防部提起诉讼,抗议其被列为“供应链风险”企业。该指定通常用于外国企业,被视为对国家安全构成潜在威胁。此举发生在Anthropic坚持拒绝将其技术用于国内大规模监控及全自动致命武器系统后,双方谈判破裂,随后政府公开批评该公司,其他AI企业则迅速签署“任何合法用途”协议以维持军方合同。
在诉讼提交数小时后,近40名来自OpenAI和谷歌的员工,包括谷歌首席科学家、Gemini项目负责人Jeff Dean,联合提交了一份支持性法庭文件(amicus brief),强调Anthropic的立场合理,且相关技术风险真实存在。文件指出,将Anthropic列为供应链风险属于“不当报复,损害公共利益”,并重申其两项红线——禁止用于国内大规模监控和全自动致命武器——具有正当性。
文件强调,AI驱动的大规模监控虽尚未实现,但一旦将现有分散数据(如监控视频、地理位置、社交数据、金融交易等)通过AI整合,将形成实时、统一的监控系统,对民主治理构成威胁。此外,致命自主武器系统在新环境或模糊情境下可靠性不足,无法准确识别目标,也无法像人类一样权衡任务目标与附带损害,且系统推理过程常不透明,甚至对开发者亦不清晰,因此必须保留人类决策参与。
提交文件的群体自称“美国前沿AI实验室的工程师、研究人员、科学家及其他专业人士”,以个人身份而非公司代表身份发声。他们表示,尽管政治与哲学立场多样,但均认同当前AI系统在缺乏监管的情况下用于上述敏感领域,存在不可忽视的风险,需通过技术或使用限制加以约束。值得注意的是,尽管被列为风险企业,Anthropic的技术已被深度整合进五角大楼工作流程,甚至在禁令宣布后数小时内,其工具Claude即被用于针对伊朗领袖阿亚图拉·阿里·哈梅内伊的军事行动。
该事件引发对AI伦理、国家安全与技术自主权的广泛讨论,凸显AI技术在军事应用中的监管真空与潜在冲突。
编辑点评
此事件标志着AI伦理与国家安全的冲突从学术讨论走向司法实践,具有深远国际影响。Anthropic被指定为供应链风险,不仅影响其自身,更波及整个AI供应链,迫使其他企业选择技术断联或接受更宽松的军用协议,实质上推动了美国AI军事化加速。而OpenAI与谷歌员工联名支持,表明顶尖AI从业者对技术滥用的集体警觉,反映了技术界对政府决策的制约能力正在增强。此举或为全球AI治理树立新范式——技术开发者不再仅是工具制造者,而是伦理与政策的积极参与者。
从地缘政治角度看,美国政府对本国AI企业的限制,实则是对技术自主与安全控制的双重诉求,但其方式可能反向削弱技术生态的稳定性。尤其在中美科技竞争加剧的背景下,美国此举可能被解读为对AI军事应用的“去中国化”延伸,但此举也可能导致美国AI生态的自我割裂,影响技术协同创新。此外,AI武器化风险已从理论转向现实,如报道中提及的针对伊朗领袖的军事行动,凸显技术部署的不可逆性,国际社会亟需建立统一的AI军控框架。
长远看,此案或成为AI法律与伦理框架的分水岭。若法院支持Anthropic,将赋予企业更强的伦理自主权,推动全球AI治理向“技术-伦理-法律”三位一体模式演进;若政府胜诉,则可能开启对AI企业“国家安全审查”的常态化,引发技术主权与自由市场的再平衡。无论结果如何,此案已将AI的“责任归属”问题推至全球焦点。