Anthropic CEO称将就政府供应链风险认定提起诉讼
Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)于2026年3月6日确认,美国政府已正式将该公司列为供应链风险实体,公司表示“别无选择”,将就此认定提起法律诉讼。
该认定源于与美国国防部在人工智能模型Claude使用权限上的长期分歧。Anthropic曾要求确保其技术不被用于完全自主武器或国内大规模监控,而国防部则要求对Claude在所有合法用途中拥有无限制访问权。
阿莫迪在社交媒体上表示:“我们认为,无论是Anthropic还是任何私营企业,都不应参与作战决策——这是军队的职责。我们的担忧仅限于完全自主武器和国内大规模监控等高层级使用场景,而非作战决策本身。”
Anthropic是首个被美国政府公开列为供应链风险的美国公司。该标签通常用于外国对手企业,如华为。该认定将要求国防承包商在与五角大楼合作时,必须证明未使用Anthropic的模型。
阿莫迪强调,该认定“不影响与国防部合同无关的Claude使用和业务关系”。微软在声明中称,其法律顾问已研究该认定,确认Anthropic产品可继续向非国防部客户提供服务。
此前,Anthropic于2025年7月与国防部签署2亿美元合同,成为首家将AI模型集成至涉密网络的AI实验室。但随着谈判停滞,OpenAI和xAI相继与五角大楼达成合作。OpenAI首席执行官山姆·阿尔特曼在Anthropic被“列入黑名单”后数小时内宣布合作,称国防部“展现出对安全的深刻尊重”。
阿莫迪还就一份内部备忘录道歉,该备忘录被媒体披露,称特朗普政府“不喜欢Anthropic,因其未捐款或提供‘独裁式赞美’”。阿莫迪称该备忘录系2026年3月5日“困难一天”后撰写,不反映其深思熟虑的观点,亦非公司主动泄露。
目前尚不清楚国防承包商能否在非军事项目中使用Anthropic技术。分析人士指出,该事件凸显美国政府对AI技术监管的复杂性与私营企业自主权之间的张力。
编辑点评
此次事件标志着美国政府对AI技术监管进入新阶段,尤其在国家安全与技术创新之间寻求平衡。将本土AI公司列为供应链风险,打破了以往仅针对外国对手企业的惯例,可能引发美国科技界对政府过度干预的广泛担忧。此举或加剧企业对与国防部合作的谨慎态度,影响军事AI部署进度。同时,OpenAI与xAI的迅速跟进,显示美国政府在AI军用领域存在“备选方案”,但这也可能削弱对单一技术路线的信任,导致资源分散。长期来看,若此类行政认定常态化,可能重塑美国科技产业与政府合作的规则,对全球AI治理产生示范效应。企业自主权与国家安全需求之间的博弈,将成为未来国际科技政策的核心议题。