谷歌与微软相继声明将继续提供Anthropic AI技术(非国防项目)
谷歌与微软相继宣布,将继续为客户提供Anthropic公司的人工智能技术,但排除国防相关用途。此举发生在美国国防部将Anthropic列为供应链风险实体之后。
谷歌发言人于周五表示:"我们理解该决定并未禁止我们在非国防相关项目中与Anthropic合作,其产品仍可通过我们的平台,如Google Cloud,提供给客户。"
微软则在周四晚间发布声明称:"我们的法律团队已研究该指定,确认Anthropic产品,包括Claude,可继续向客户开放——但不包括国防部。"
Anthropic的Claude模型可通过Google Cloud的Vertex AI平台获取。谷歌是Anthropic的重要财务支持者,2025年1月宣布追加10亿美元投资,此前已持有20亿美元股份。此外,Anthropic利用谷歌云AI基础设施训练模型,并近期扩展合作,获得使用高达100万个谷歌自定义张量处理单元(TPU)的权限。
此前,因Anthropic拒绝接受美国国防部提出的使用条款,总统特朗普指令联邦机构停止使用其技术。国防部长Pete Hegseth表示,与Anthropic的合作将在六个月内逐步终止。CNBC确认,美国在最近对伊朗的军事行动中使用了Anthropic模型。
部分国防科技公司已通知员工停止使用Claude模型,转向OpenAI等替代方案。亚马逊作为公有云市场领导者,截至目前尚未对此事发表评论。
Anthropic首席执行官Dario Amodei周四表示,公司“别无选择”,只能就国防部的供应链风险认定提起法律诉讼。
编辑点评
此次事件凸显人工智能技术在国家安全与民用领域的边界正日益模糊。美国国防部将Anthropic列为供应链风险,实质上是对AI技术自主可控的强化要求,反映出美国在前沿科技领域对潜在战略依赖的警惕。谷歌与微软的表态,表明科技巨头在权衡国家安全与商业利益时,倾向于在非国防领域维持合作,凸显其对AI生态稳定性的重视。此举可能加速AI技术在民用领域的去风险化趋势,推动企业寻求更“安全”或“合规”的替代方案。同时, Anthropic的法律挑战或引发关于政府对私营科技企业监管边界的重要法律争议,可能影响未来政府与AI企业合作的范式。长远来看,若美国持续对AI供应商实施严格审查,或促使全球AI产业链进一步分化,形成以国家主导的“安全AI”与“开放AI”两类生态。