特朗普下令美国联邦机构立即停止使用Anthropic人工智能工具
美国现任总统特朗普于2026年2月28日宣布,指示所有联邦机构“立即停止”使用Anthropic公司的人工智能工具。他称此举是对该公司“左翼激进分子”试图“强压战争部”的回应,并表示将给予六个月的过渡期,以供进一步谈判。
该决定源于美国国防部与Anthropic在军事AI应用限制问题上的长期争执。国防部希望修改2023年7月与包括Anthropic在内的多家AI公司达成的协议条款,取消对AI军事用途的限制,允许“所有合法用途”。Anthropic对此表示反对,担心该条款可能被用于开发完全自主的致命武器或对美国公民进行大规模监控。
Anthropic是首家与美国军方达成合作的AI公司,2023年与国防部签署2亿美元合同,开发名为Claude Gov的定制模型,该模型比常规版本限制更少。目前,Claude Gov通过Palantir和亚马逊云平台用于涉密军事工作,主要任务包括撰写报告、文档摘要、情报分析及军事规划。尽管国防部目前并未使用AI进行自主武器或大规模监控,且无此类计划,但特朗普政府高层反对由民用科技公司主导军事AI使用规则。
此次争端因Axios报道美军曾使用Claude辅助策划抓捕委内瑞拉总统尼古拉斯·马杜罗的行动而公开化。随后,Palantir一名员工向军方转达了Anthropic员工对模型被用作军事规划的担忧,但Anthropic否认曾提出异议或干预军方使用。
国防部长彼得·赫格塞斯本周与Anthropic首席执行官达里奥·阿莫迪会面,要求该公司在2月28日前同意修改合同条款,允许“所有合法用途”。赫格塞斯在会面中肯定了Anthropic产品价值,并表示国防部希望继续合作。
科技界对此反应强烈。数百名OpenAI和Google员工联名公开信支持Anthropic,批评本公司的军事AI政策。OpenAI首席执行官山姆·阿尔特曼在致员工的备忘录中称,公司同意Anthropic立场,将自主武器和大规模监控视为“红线”,并寻求与国防部达成新协议。
专家指出,该争议更多是理念与“氛围”之争,而非实际部署分歧。军事AI专家迈克尔·霍罗维茨表示,当前双方在技术应用上并无实质性分歧,Anthropic已支持国防部所有当前提出的使用场景,且双方均认同某些技术尚未成熟。
Anthropic自创立起强调AI安全优先。2024年1月,阿莫迪在博客中警告全自主AI武器的风险,称“这些武器在捍卫民主方面有合法用途,但其使用危险重重”。
编辑点评
此次特朗普政府对Anthropic的禁令,反映出美国在AI军事化进程中日益加剧的权力博弈——政府希望掌控技术使用主导权,而科技企业则坚持伦理边界。这一事件不仅是技术公司与国防部的冲突,更是全球AI治理框架的缩影。美国作为全球AI技术引领者,其政策走向将深刻影响其他国家的军事AI发展路径。若美国政府成功迫使科技公司放弃伦理限制,可能引发全球AI军备竞赛,推动自主武器系统加速部署,从而威胁国际安全稳定。反之,若科技企业坚守安全红线,或促使美国军方重新评估AI在军事中的角色,推动建立更严格的伦理与法律框架。该事件的长期影响不在于当前AI应用的局限,而在于它可能塑造未来‘技术-政府-伦理’三者关系的范式。