← 返回

Anthropic起诉特朗普政府撤销“供应链风险”标签

人工智能公司Anthropic于2026年3月10日向美国加利福尼亚州联邦法院提起诉讼,指控特朗普政府对其实施的“供应链风险”标签及禁用其AI产品Claude的行政指令为非法报复行为。该公司称,其拒绝向军方提供无限制使用权限,因技术伦理限制不支持致命自主武器和大规模监控。此标签是美国首次对本土企业作出此类认定,通常用于与外国对手有关联的公司。Anthropic同时在华盛顿特区上诉法院提起诉讼,并获得包括OpenAI和谷歌在内的30余名AI专家支持,认为此举将削弱美国在人工智能领域的竞争力。

Anthropic起诉特朗普政府撤销“供应链风险”标签

人工智能公司Anthropic于2026年3月10日向美国加利福尼亚州联邦法院提起诉讼,指控特朗普政府对其实施的“供应链风险”标签及禁用其AI产品Claude的行政指令为非法报复行为。

Anthropic在诉状中称,美国国防部于3月3日最终认定该公司为“供应链风险”,导致任何与军方有业务往来的实体不得与Anthropic合作。这是美国首次对本土企业作出此类认定,此前该标签通常用于与外国对手有关联的公司。

该公司指出,其拒绝向军方提供无限制使用权限,因技术伦理限制不支持致命自主武器和大规模监控美国人,这些条款始终存在于其政府合同中。Anthropic强调,Claude“从未针对军方需求进行过测试”,且“无法确保在支持致命自主武器系统时的可靠性与安全性”。

Anthropic同时在华盛顿特区上诉法院提起诉讼,起诉对象包括美国国防部、财政部长斯科特·贝森特(Scott Bessent)、国务卿马尔科·鲁比奥(Marco Rubio)及17个联邦机构与官员。该公司称,总统唐纳德·特朗普(Donald Trump)已指示联邦机构停止使用Claude,此举“前所未有且违法”。

超过30名AI领域的工程师和科学家,包括谷歌首席科学家杰夫·迪恩(Jeff Dean),联名提交法律简报支持Anthropic,称若该政策得以实施,将严重损害美国在人工智能领域的工业与科技竞争力。

美国政府自2024年起已使用Anthropic技术,其AI系统Claude是首个被部署于机密工作的AI工具。此案引发对AI伦理、政府监管边界及科技企业自主权的广泛讨论。

编辑点评

此次诉讼标志着美国政府与科技企业之间在AI伦理与国家安全问题上的首次重大法律对峙。Anthropic的抗争不仅关乎企业自身权益,更触及美国AI治理的核心矛盾:政府在安全与创新之间的平衡。将本土企业贴上‘供应链风险’标签,打破了以往仅针对外国实体的惯例,可能引发科技行业的连锁反应。若政府胜诉,可能为未来以国家安全为由限制科技企业设定先例,削弱美国AI产业的灵活性与全球竞争力。同时,该事件凸显AI技术在军事应用中的伦理争议,迫使政府与企业共同界定技术使用的边界。从长远看,此案或成为美国AI监管走向的分水岭,影响未来技术发展与国际合作模式。

相关消息:https://cointelegraph.com/news/ai-firm-anthropic-sues-trump-admin-over-supply-chain-risk-label?utm_source=rss_feed&utm_medium=rss&utm_campaign=rss_partner_inbound
当日日报:查看 2026年03月10日 当日日报