微软、谷歌、亚马逊确认非国防客户可继续使用Anthropic Claude模型
美国国防部于2026年3月6日将人工智能初创公司Anthropic列为供应链风险企业,因其拒绝向军方提供无限制技术访问权限,尤其涉及大规模监控和全自动武器等高风险应用。该指定通常适用于外国对手,意味着国防部将无法继续使用Anthropic产品,同时要求与其合作的任何企业或机构必须证明未使用Anthropic模型。
尽管如此,微软、谷歌和亚马逊均确认,其客户在非国防相关场景下仍可继续使用Anthropic开发的Claude模型。微软发言人表示,公司法律团队已研究该指定,确认Claude可通过M365、GitHub和微软AI Foundry等平台向非国防部客户提供服务,且可继续与Anthropic开展非国防项目合作。
谷歌方面也确认,其平台如Google Cloud将继续提供Claude服务,且该指定不禁止非国防相关合作。CNBC报道指出,AWS客户和合作伙伴亦可继续使用Claude进行非国防工作负载。
Anthropic首席执行官Dario Amodei在声明中强调,该限制仅适用于客户直接参与国防部合同的场景,不影响其他非相关业务或客户使用。他同时表示,公司已决定通过法律途径挑战该指定。
值得注意的是,Claude在拒绝军事用途要求后,消费者端增长持续加速,显示其在民用市场的强劲需求。
编辑点评
此次美国国防部将Anthropic列为供应链风险企业,标志着美国政府在人工智能军事化应用上正采取更严格的管控措施,也反映出AI技术治理的复杂性。此举虽未直接影响民用市场,但对科技企业与政府合作模式形成重要约束,尤其在涉及国家安全与伦理边界时。微软、谷歌、亚马逊的回应表明,大型科技公司倾向于将AI工具与国防项目脱钩,以维护商业生态的稳定与合规性。从长远看,这一事件可能推动美国在AI军用与民用分离方面建立更清晰的监管框架,同时加速AI伦理标准的全球讨论。该事件的国际影响在于,它可能促使其他国家在AI军用化上采取类似审慎态度,或引发对技术出口与限制的新一轮政策调整。