← 返回

美国国防部与Anthropic就AI模型军用用途产生分歧

美国国防部与AI初创公司Anthropic就其模型在军事领域的使用范围出现分歧。目前双方合作处于审查阶段,国防部希望不受限使用,而Anthropic要求排除用于自主武器和大规模监控。若协商未果,国防部可能将该公司列为供应链风险。

美国国防部与Anthropic就AI模型军用用途产生分歧

美国国防部与AI初创公司Anthropic就其人工智模型的军事用途产生重大分歧,双方合作现状处于审查阶段。2025年生效的2亿美元合同使Anthropic成为首家在国防部机密网络部署模型并为国家安全客户提供定制化服务的AI企业,但目前关于未来使用条款的谈判陷入僵局。

国防部研究与工程次长埃米尔·迈克尔在佛罗里达州防务峰会上表示,若企业不愿接受“所有合法用途”的开放性条款,将影响国家安全。Anthropic则要求书面承诺禁止模型用于自主武器系统或大规模监控美国民众。这家由前OpenAI研究人员于2021年创立的公司,本月早些时候刚完成300亿美元估值的300亿美元融资。

国防部高级官员透露,OpenAI、Google和xAI等竞争对手已同意在非机密系统中开放全部合法用途,其中一家甚至覆盖“所有系统”。若Anthropic未能达成协议,可能面临“供应链风险”认定,这将迫使国防部承包商放弃使用其技术。该争议正值特朗普政府强化AI监管之际,白宫科技顾问大卫·萨克斯已公开批评Anthropic支持“觉醒AI”。

编辑点评

此次美国内部AI巨头与政府部门的博弈,将深刻影响全球军事智能化进程。一方面,美国试图通过掌握领先AI技术维护其军事优势,但Anthropic提出的伦理红线触及AI军民两用的技术争议;另一方面,将中国AI企业排除在竞争之外的“供应链风险”认定,可能引发新一轮科技霸权争夺。值得注意的是,OpenAI等公司在机密领域保持开放态度,而Anthropic试图建立技术使用门槛,这种差异将重塑美国AI军备竞赛格局。

国际社会应关注这场谈判背后的深层逻辑:特朗普政府正在构建以“忠诚供应商”为核心的AI军备体系,这可能加速各国建立自主可控的军事AI生态。同时,自主武器与监控技术的界定争议,将推动联合国等国际组织加快制定AI伦理框架。若美国坚持单边路线,可能导致全球AI军事化竞赛失序,最终反噬自身安全利益。

相关消息:https://www.cnbc.com/2026/02/18/anthropic-pentagon-ai-defense-war-surveillance.html