特朗普下令禁止美国政府使用Anthropic人工智能工具
美国现任总统唐纳德·特朗普于2026年2月27日宣布,立即指示所有联邦机构停止使用Anthropic公司的人工智能工具。此举源于该公司与军方在人工智能军事应用限制问题上的长期争执。
特朗普在Truth Social平台发布声明称:
“左翼激进分子在Anthropic犯下灾难性错误,试图胁迫国防部。”
美国防部与Anthropic等AI公司去年7月达成协议,但近期防部试图修改协议条款,取消对AI使用方式的限制,转而允许“所有合法用途”的AI部署。Anthropic对此表示反对,称此举可能允许AI用于完全控制致命自主武器,或对美国公民实施大规模监控。
国防部强调,目前并未将AI用于上述用途,也无相关计划。但特朗普政府高层认为,不应由民用科技公司决定此类关键军事技术的使用边界。
Anthropic是首家与美国军方合作的大型AI实验室,去年签署2亿美元合同,开发专用于政府系统的Claude Gov模型,该模型在权限和内容审查上较普通版本更宽松。目前,Claude Gov通过Palantir和亚马逊云平台支持涉密军事任务,主要应用于报告撰写、文件摘要、情报分析和军事规划。
一位匿名消息人士向WIRED透露,尽管目前AI主要用于常规工作,但其在军事领域的应用范围正在拓展。近期,数百名OpenAI和谷歌员工联名签署公开信,支持Anthropic,批评自身公司解除AI军用限制的决定。
此次事件凸显硅谷科技企业从回避国防业务到全面介入军事承包的深刻转变,引发了关于AI军事化边界和伦理规范的广泛争议。事件仍在发展中,后续进展将持续关注。
编辑点评
此次特朗普政府对Anthropic的禁用令,不仅是对一家AI企业的行政干预,更是对人工智能军事化边界的一次重大政治表态。其核心冲突在于:民用科技公司是否应拥有对军用AI应用的‘否决权’。从国际角度看,美国作为全球AI技术领导国,其政策方向将直接影响全球AI军备竞赛的规则制定。若美国政府坚持‘所有合法用途’原则,可能推动AI武器自主化加速,引发其他国家效仿,加剧地缘安全风险;反之,若保留对致命自主武器的限制,则可能为AI军控提供范本。同时,此事件暴露了科技企业与国家军事机构间的权力博弈——当AI成为战略基础设施,企业的伦理立场与国家安全需求之间的张力将日益凸显。长远来看,若美国持续推动AI军事化,可能重塑全球军事平衡,也迫使中国、欧盟等主要经济体重新评估其AI发展战略与安全框架。