美国防部将Anthropic列为供应链风险企业 引发科技界震动
美国国防部长彼得·赫格塞斯于2026年2月28日宣布,将人工智能企业Anthropic列为“供应链风险”实体,并在社交媒体上发布声明称:“立即生效,任何与美国军事有业务往来的承包商、供应商或合作伙伴不得与Anthropic开展任何商业活动。”
该决定立即在硅谷引发震动。Anthropic于同日发布博客回应,称将“在法庭上挑战任何供应链风险指定”,并指出该指定“将为任何与政府谈判的美国公司设立危险先例”。公司强调,尚未收到五角大楼或白宫关于AI模型使用谈判的任何直接沟通。
这一指定源于数周来五角大楼与Anthropic在AI模型军用范围上的紧张谈判。Anthropic在本周早些时候的博客中表示,其与五角大楼的合同不应允许技术用于美国国内的大规模监控或完全自主武器系统。而五角大楼则要求Anthropic同意其AI技术可用于“所有合法用途”,且无具体例外。
根据美国法典第10篇第3252条,供应链风险指定仅适用于国防部与供应商之间的直接合同,不涵盖承包商如何使用Anthropic的Claude AI软件服务其他客户。但目前尚无法确定该指定是否影响Anthropic的非军事客户,法律专家指出,赫格塞斯的声明“目前并未基于我们能解读的任何明确法律”。
多家与美军有业务往来且与Anthropic合作的科技公司,包括亚马逊、微软、谷歌、英伟达,以及国防科技企业Anduril和Shield AI,均未立即回应媒体置评请求。五角大楼拒绝就此事发表评论。
美国国防生产法曾被提及可能用于强制Anthropic向军方提供技术,但法律专家指出,这种“反复无常”的态度削弱了国防部关于Anthropic构成真实风险的论点。分析人士警告,该事件可能严重打击科技企业参与国防承包的积极性。CSIS的格雷格·艾伦表示:“国防部向所有公司传递了一个明确信号:一旦你涉足国防合同,我们随时可能抓住你的脚踝,把你拖入深渊。”
与此同时,OpenAI首席执行官山姆·阿尔特曼宣布,该公司已与国防部达成协议,允许其AI模型在机密环境中部署,且协议明确保留了禁止国内大规模监控和自主武器系统的使用原则。阿尔特曼称,国防部认可并将其纳入法律和政策框架。
法律专家普遍认为,Anthropic将提起诉讼,但诉讼可能耗时数月甚至数年,期间其业务可能因客户被迫切断合作关系而受损。该事件对NVIDIA、Palantir等与美军密切合作的科技企业也构成重大不确定性。一位匿名科技高管表示,其公司目前正处于“观望状态”,正由律师团队评估风险。他指出,若该禁令参照《国防授权法》第889条(禁止联邦机构采购使用特定中国通信设备的系统),则门槛较高,因为即使企业内部使用Claude Code,也可能不被视为“核心组件”,从而规避禁令。
该事件凸显了美国政府在国家安全与技术创新之间的张力,未来可能重塑军民科技合作的法律与政策框架。
编辑点评
此事件标志着美国政府在人工智能监管与国家安全之间的平衡点发生重大偏移。将一家本土AI企业列为‘供应链风险’,不仅违反了通常针对外国实体的监管逻辑,更对美国科技产业的自主创新构成直接打击。此举可能被解读为政府对科技公司谈判立场的报复性措施,而非基于实质安全风险的评估,从而动摇了企业与政府合作的信任基础。从国际角度看,这一动向可能被他国解读为美国在科技领域采取保护主义与政治化倾向的信号,对全球AI合作生态构成挑战。若该指定最终被法院推翻,可能削弱政府在科技监管中的权威;若维持,则可能引发更多科技企业规避与政府合作,加速美国国防科技供应链的内卷化与封闭化。从长远看,该事件暴露了美国在AI治理框架上的制度性滞后,亟需建立基于透明、法治与技术中立原则的监管机制,而非依赖行政命令与政治化操作。