← 返回

美国国防部将Anthropic列为国家安全供应链风险引发争议

美国国防部长彼得·黑格塞斯于2026年3月5日通过社交媒体将人工智能公司Anthropic列为‘国家安全供应链风险’,引发广泛质疑。此举罕见地将一家美国本土企业置于类似外国对手的审查之下,但尚未有正式文件发布。总统唐纳德·特朗普随后下令联邦机构立即停止使用Anthropic技术,并设六个月过渡期。尽管如此,美国军方仍在伊朗军事行动中使用其Claude模型。专家指出,该决定缺乏明确技术威胁依据,更像是政治与人事冲突的体现。目前,双方重启谈判,但未来走向仍充满不确定性。

美国国防部将Anthropic列为国家安全供应链风险引发争议

美国国防部长彼得·黑格塞斯于2026年3月5日通过社交媒体宣布,将人工智能公司Anthropic列为“国家安全供应链风险”,此举在国际科技与安全领域引发广泛讨论。

该决定使Anthropic成为首家被美国政府公开列为供应链风险的本土企业。按惯例,此类标签通常用于外国对手。然而,目前该声明尚未通过正式行政程序发布,仅以社交媒体形式传达。正式指定将要求国防承包商必须认证其未在与国防部合作中使用Anthropic模型。

争议焦点在于,美国国防部希望获得对Anthropic旗下Claude系列模型的无限制访问权限,而Anthropic则要求确保其技术不被用于全自动武器或国内大规模监控。截至3月5日周五最后期限,双方未达成协议,总统唐纳德·特朗普随即下令联邦机构立即停止使用Anthropic技术,并设六个月逐步退出期。

值得注意的是,尽管被“封杀”,Anthropic模型仍在支持美国对伊朗的军事行动,此前CNBC已有报道。斯坦福大学高级研究学者赫伯特·林表示:“如果真认为其构成重大国家安全威胁,为何还要允许使用六个月?”

分析指出,向新供应商过渡耗时且成本高昂。此前,Anthropic是唯一获准在国防部机密网络部署模型的AI公司,尽管OpenAI和Elon Musk的xAI已获准,但系统部署无法立即完成。

目前,尚无明确技术漏洞或黑客攻击证据表明Anthropic构成安全威胁。林指出,国防部指控其“傲慢”、不愿“在假设性情境中听从指令”,非实质性风险。此外,黑格塞斯曾威胁援引《国防生产法》强制Anthropic配合,该法律通常用于紧急国家安全状况,反而削弱了“威胁论”逻辑。

部分专家认为,此冲突实为政治与个人恩怨。此前,白宫AI与加密货币事务负责人大卫·萨克斯批评Anthropic“以恐吓手段进行监管操控”,保守派亦指责其推行“觉醒AI”。公司CEO达里奥·阿莫迪在特朗普政府初期未积极寻求关系缓和,加剧了对立。

截至目前,未有正式法律文件将Anthropic列为供应链风险。多家企业已开始转向其他AI供应商,但部分高管如C3 AI董事长汤姆·西贝尔认为“除非进入诉讼程序,否则无需急于调整”。

斯坦福胡佛研究所研究员雅克琳·施耐德指出,尽管政策声明需法律程序支持,但承包商已默认遵循“国防部”(DoD)新称谓“战争部”(DoW),显示实际操作中行政指令优先。然而,中心民主与技术政策副总裁萨米尔·贾因强调,社交媒体声明不足以构成法律意义上的风险认定。

Anthropic周五发表声明,称将对任何正式供应链风险认定提出法律挑战。

随着美国对伊朗军事行动进入第六天,施耐德质疑:为何在战前如此投入精力公开与技术供应商交恶?她指出,大规模军事行动需长期筹备,此时放弃已深度嵌入的AI系统不合情理。

展望未来,专家认为六个月过渡期或成国防部重新评估的契机。林和霍洛维茨均不认为一年后Anthropic模型将完全退出国防部系统。施耐德则坦言:“一切皆前所未有,无历史案例可循。”

美国国防部与Anthropic均未对最新进展作出回应。

编辑点评

此次美国国防部对Anthropic的‘供应链风险’标签,表面上是技术安全审查,实则暴露了美国在人工智能治理中的深层矛盾。首先,将本土企业置于与外国对手同等威胁等级,打破了传统安全框架,可能引发科技界对政府过度干预的普遍担忧。其次,军事行动中持续使用被‘封杀’技术,凸显了现实操作与政策声明的脱节,削弱了政策可信度。从地缘政治角度看,此举可能被他国解读为美国AI政策的不稳定性,影响其在全球AI竞争中的领导地位。更重要的是,若该事件最终演变为法律诉讼,将重新定义政府与科技企业之间的权力边界,可能成为未来全球AI监管的参照案例。长远而言,这一事件或推动美国建立更透明、程序化的AI安全评估机制,避免政策情绪化对关键基础设施造成干扰。

相关消息:https://www.cnbc.com/2026/03/05/5-big-questions-anthropic-pentagon-ai-war.html
当日日报:查看 2026年03月05日 当日日报