← 返回

美国国防部禁用Anthropic AI技术 引发业界担忧

美国国防部于2026年3月9日宣布将Anthropic公司列入供应链风险名单,禁止其AI技术用于国防项目。此前,该部门曾授予Anthropic价值2亿美元的合同,使其成为首个在机密网络中部署AI模型的公司。此举引发广泛争议,专家指出该决定与此前威胁动用《国防生产法》强制获取技术相矛盾,且可能影响军事人员对AI工具的依赖。Anthropic已对特朗普政府提起诉讼,称其行为‘前所未有且违法’。该公司自2021年成立以来迅速发展,估值达3800亿美元,是美国增长最快的科技初创企业之一。亚马逊是其主要投资方,已投入80亿美元。目前,AWS客户仍可使用Claude模型,但国防领域应用被全面禁止。

美国国防部禁用Anthropic AI技术 引发业界担忧

美国国防部于2026年3月9日宣布将Anthropic公司列入供应链风险名单,禁止其AI技术用于国防项目。此前,该部门曾授予Anthropic价值2亿美元的合同,使其成为首个在机密网络中部署AI模型的公司。

这一决定由国防科技主管Emil Michael主导,他在2025年8月接手AI项目管理后,启动了对相关合同的审查。审查结果导致国防部将Anthropic视为供应链风险,该标签此前仅用于外国对手。此举要求所有国防承包商必须证明未使用Anthropic模型。

Anthropic于3月9日对特朗普政府提起诉讼,称其行为“前所未有且违法”,并指出该禁令正在“不可挽回地损害公司”,危及数亿美元合同。

多位专家表示,该决定令人困惑,因此前政府曾威胁动用《国防生产法》以强制获取Anthropic技术,如今却将其列为高风险实体。退役海军少将Mark Dalton指出,这种矛盾做法“在现实中难以成立”。

前国防部官员Brad Carson表示,军方人员对Claude模型高度依赖,认为其“更可靠、用户友好,适合作战规划”。他称已有多名退役军官反映“作战人员对此不满”。

Anthropic由Dario Amodei于2021年在旧金山创立,其团队曾从OpenAI离职,因不满该公司对AI安全的态度。公司自2023年推出Claude系列模型后,估值达3800亿美元,是美国增长最快的科技初创企业之一。

亚马逊自2023年起成为其最大投资方,累计投入80亿美元,并通过AWS Bedrock服务支持政府机构使用Claude。联邦机构反馈称,Claude在审计和任务验证方面表现优于OpenAI和Meta等竞品,且其企业级用户体验更适合桌面操作。

目前,AWS客户仍可使用Claude模型,但国防领域应用被全面禁止。专家担忧此举可能破坏美国在AI军事应用领域的技术优势,并为未来政府监管AI企业设定危险先例。

编辑点评

美国国防部对Anthropic的禁令标志着AI监管进入新阶段,其影响远超单一公司命运。此举将AI企业直接纳入国家安全审查框架,等同于将科技公司视为潜在战略威胁,打破了过往政府与科技界合作的惯例。从国际视角看,这一决定可能强化全球对美国科技政策不确定性的担忧,尤其在中美科技竞争背景下,可能促使中国及其他国家加速本土AI生态建设,以规避被美国“标记为风险”的风险。同时,该事件暴露了美国在AI战略上的内在矛盾:一方面急需先进AI技术提升军事能力,另一方面又对技术来源和控制权高度敏感。若此类‘先合作后禁用’模式成为常态,将严重削弱全球科技企业对美国市场的信心。长远来看,这或推动AI技术主权化趋势,各国更倾向于发展自主可控的AI系统,从而重塑全球技术格局。

相关消息:https://www.cnbc.com/2026/03/09/anthropic-was-the-pentagons-choice-for-ai-now-its-banned-and-experts-are-worried.html
当日日报:查看 2026年03月10日 当日日报