帕兰提尔CEO确认继续使用Anthropic的Claude模型 尽管五角大楼将其列入供应链风险名单
帕兰提尔(Palantir)首席执行官亚历克斯·卡尔普(Alex Karp)于2026年3月12日确认,该公司仍在其产品中集成Anthropic公司的Claude大型语言模型,尽管美国国防部已将Anthropic指定为供应链风险。
卡尔普在马里兰州举行的AIPcon 9大会上对CNBC表示:"国防部正在计划逐步淘汰Anthropic;目前尚未淘汰。我们的产品已集成Anthropic,未来可能会集成其他大型语言模型。"
美国国防部于上周正式将Anthropic列为供应链风险,但仍在使用Claude模型支持伊朗战事,此前CNBC已对此进行报道。
帕兰提尔计划在当前冲突背景下引入更多大模型,以增强系统兼容性和应对潜在政策变动。这一表态反映出私营科技企业与政府监管机构在人工智能应用与安全标准上的张力。
编辑点评
此次事件揭示了美国在人工智能安全治理上的复杂性。尽管五角大楼将Anthropic列为供应链风险,显示其对AI模型来源与潜在漏洞的高度警惕,但仍在实际军事行动中继续使用Claude,反映出政策执行与现实需求之间的脱节。帕兰提尔作为国防承包商,选择在短期内维持现有技术集成,体现了商业运营对政策变动的缓冲能力。
更深层的问题在于,美国国家安全机构对AI技术的依赖已达到关键程度,但缺乏统一的评估与替代机制。此举可能促使更多企业加速布局多模型兼容架构,以规避单点依赖风险。长期来看,若此类事件频繁发生,或推动美国建立更系统的AI供应链监管框架,影响全球科技企业的合规策略。
同时,该事件也凸显大国在AI军用化进程中的普遍矛盾:既需前沿技术提升作战效能,又担忧技术来源与潜在后门威胁。这种矛盾或将在其他西方国家中引发类似政策调整,对全球AI生态产生结构性影响。