美国防部正式将Anthropic列为供应链风险企业,Claude模型仍在伊朗战事中被使用
美国国防部已正式通知人工智能初创公司Anthropic的管理层,将其及其产品列为国家安全供应链风险,立即生效。据一位国防部高级官员向CNBC透露,此举基于“军队能够合法使用技术”的基本原则,且“不会允许供应商通过限制合法使用关键能力而介入指挥链,从而危及作战人员安全”。
这是美国首次将本国企业公开列为“供应链风险”,此前该标签主要用于外国对手。该指定将要求所有与五角大楼合作的国防承包商和供应商必须认证其未在工作中使用Anthropic的AI模型,包括Claude系列。
尽管被禁用,美国防部仍使用Anthropic的Claude模型支持在伊朗的军事行动,此前CNBC已报道该情况。Anthropic公司未对指定做出评论,但上周发表声明称,将“在法庭上挑战任何供应链风险指定”。
该正式指定是Anthropic与国防部持续冲突的最新进展。此前,公司因AI模型使用权限问题与国防部产生分歧。Bloomberg率先报道了官方指定消息。
国防部长彼得·赫格塞斯周五发布声明,称将指示国防部将Anthropic列为“国家安全供应链风险”,但该声明本身不足以构成正式指定。总统唐纳德·特朗普周五亦指示联邦机构“立即停止”使用Anthropic技术,并在周四接受Politico采访时称已“解雇”该公司,表示“他们不该那样做”。
Anthropic与特朗普政府关系日益紧张。白宫AI与加密货币事务负责人、风险投资家大卫·萨克斯此前指责Anthropic支持“政治正确的AI”,并称其“通过恐吓进行监管操控”,起因是公司高管在10月发表题为《技术乐观主义与适当恐惧》的论文。
Anthropic首席执行官达里奥·阿莫迪未像其他科技领袖(如OpenAI的奥尔特曼、苹果库克、谷歌皮查伊)那样与特朗普密切互动,且未出席去年的总统就职典礼。据The Information报道,阿莫迪周五在内部备忘录中称,政府对公司的不满源于其未捐赠或提供“独裁式赞美”给特朗普。
Anthropic的合作伙伴Palantir股价周四下跌2%。该公司约60%的美国收入来自政府合同,并与Anthropic于2024年底签署合作协议,用于军事和情报部门项目。Piper Sandler分析师在周二报告中指出,Anthropic“深度嵌入军事和情报体系”,转向其他技术可能对Palantir短期运营造成干扰。
编辑点评
此次美国防部将本土AI企业Anthropic列为供应链风险,标志着美国国家安全框架对AI技术管理的显着升级。此举不仅具有象征意义——首次将本国公司纳入类似针对外国对手的高风险清单——更反映了美国政府在AI军事应用上的战略焦虑:对技术控制权的担忧已超越传统主权边界,延伸至企业治理结构与政治立场。尤其值得注意的是,尽管被禁用,美国军方仍在伊朗行动中使用Claude模型,暴露出政策执行与实际操作之间的错位,凸显AI技术在现代战争中的不可替代性。
该事件的深层背景是美国对AI技术“政治化”的担忧加剧。特朗普政府对Anthropic的批评,如“未提供独裁式赞美”或“支持woke AI”,反映出政权更迭后对科技企业价值观的审查趋势。这种“政治忠诚度”标准若成为常态,可能引发科技公司与政府关系的结构性紧张,甚至影响AI研发的独立性与创新动力。
长远来看,此事件将推动美国AI监管体系向“技术+政治”双轨制演进。国防承包商将被迫在技术性能与合规风险间权衡,而包括Palantir在内的依赖Anthropic的公司可能面临供应链重组。同时,该事件可能促使其他大国重新评估本国AI企业的“政治中立性”要求,加剧全球AI竞争中的制度性摩擦。