Anthropic起诉特朗普政府“供应链风险”标签
人工智能公司Anthropic于2026年3月9日向美国联邦法院提起两起诉讼,指控特朗普政府因该公司对AI安全的立场而非法将其列为“供应链风险”实体。
该标签由美国国防部提出,禁止其技术被用于国防采购,被视为实质上的黑名单。Anthropic在诉讼中称,此举系对该公司坚持AI安全原则的报复,违反其宪法第一修正案权利,并超出了《供应链风险法》的适用范围。
公司CEO达里奥·阿莫迪此前公开声明,禁止其Claude模型用于自主武器系统或大规模监控美国公民。诉讼指出,允许Claude用于此类用途将违背公司宗旨和公共承诺。
美国国防部官员对此未予置评,但强调政府有权在合法框架内使用技术于军事和战术场景,私企无权限制政府用途。此次“供应链风险”标签在业内罕见,通常用于外国对手企业,针对美国本土公司属极不寻常。
此前,国防部长彼得·赫格塞斯与阿莫迪曾于2月举行会晤。在标签发布后,特朗普在社交媒体上宣布,所有联邦机构将停止使用Anthropic工具。
值得注意的是,Anthropic是首个获准在美国涉密网络中使用的AI前沿实验室。然而,自争议爆发后,国防部已批准Elon Musk的xAI及OpenAI的ChatGPT用于涉密系统。
据《华尔街日报》报道,Claude曾用于军事行动,包括逮捕委内瑞拉领导人尼古拉斯·马杜罗的突袭行动,以及在美伊冲突中进行情报分析和目标识别(NPR尚未独立核实此报道)。
尽管Anthropic反对致命武器和大规模监控,但公司表示,自2024年起已与Palantir等国家安全承包商合作,协助政府处理复杂数据、识别趋势、优化文件审查,并辅助官员在紧急情况下做出决策。
编辑点评
此次Anthropic起诉特朗普政府事件,标志着人工智能治理与国家安全之间的紧张关系已进入法律对抗阶段。将一家美国本土AI公司列为‘供应链风险’实体,打破了传统安全审查的边界,引发对政府权力扩张与企业言论自由冲突的广泛关注。从国际视角看,此举可能削弱美国科技公司在全球AI竞赛中的合作意愿,尤其是在涉及国防与隐私议题时。若政府能以‘国家安全’为由限制AI应用,将可能被他国效仿,引发全球AI技术使用标准的碎片化。此外,该事件暴露了AI伦理与军事应用之间的深层矛盾:一方面,企业强调技术伦理与责任,另一方面,政府要求技术服务于国家安全需求。未来,若类似事件频发,或推动国际社会建立统一的AI军事应用规范,并促使各国重新评估其AI监管框架。