← 返回

微软、谷歌、亚马逊确认非国防客户可继续使用Anthropic Claude模型

微软、谷歌和亚马逊确认,其客户在非国防相关场景下可继续使用Anthropic公司开发的Claude人工智能模型。美国国防部于周四将Anthropic列为供应链风险企业,因其拒绝向军方提供无限制技术访问权限,尤其涉及大规模监控和全自动武器等高风险应用。尽管如此,三大科技公司均表示,其平台(如微软M365、GitHub、Google Cloud、AWS)上的Claude服务不受限制,仅限于非国防用途。Anthropic首席执行官Dario Amodei强调,该限制仅针对直接与国防部合同相关的使用,不影响其他客户及非相关业务合作。目前,Anthropic已表示将通过法律途径挑战该指定。Clau...

微软、谷歌、亚马逊确认非国防客户可继续使用Anthropic Claude模型

美国国防部于2026年3月6日将人工智能初创公司Anthropic列为供应链风险企业,因其拒绝向军方提供无限制技术访问权限,尤其涉及大规模监控和全自动武器等高风险应用。该指定通常适用于外国对手,意味着国防部将无法继续使用Anthropic产品,同时要求与其合作的任何企业或机构必须证明未使用Anthropic模型。

尽管如此,微软谷歌亚马逊均确认,其客户在非国防相关场景下仍可继续使用Anthropic开发的Claude模型。微软发言人表示,公司法律团队已研究该指定,确认Claude可通过M365、GitHub和微软AI Foundry等平台向非国防部客户提供服务,且可继续与Anthropic开展非国防项目合作。

谷歌方面也确认,其平台如Google Cloud将继续提供Claude服务,且该指定不禁止非国防相关合作。CNBC报道指出,AWS客户和合作伙伴亦可继续使用Claude进行非国防工作负载。

Anthropic首席执行官Dario Amodei在声明中强调,该限制仅适用于客户直接参与国防部合同的场景,不影响其他非相关业务或客户使用。他同时表示,公司已决定通过法律途径挑战该指定。

值得注意的是,Claude在拒绝军事用途要求后,消费者端增长持续加速,显示其在民用市场的强劲需求。

编辑点评

此次美国国防部将Anthropic列为供应链风险企业,标志着美国政府在人工智能军事化应用上正采取更严格的管控措施,也反映出AI技术治理的复杂性。此举虽未直接影响民用市场,但对科技企业与政府合作模式形成重要约束,尤其在涉及国家安全与伦理边界时。微软、谷歌、亚马逊的回应表明,大型科技公司倾向于将AI工具与国防项目脱钩,以维护商业生态的稳定与合规性。从长远看,这一事件可能推动美国在AI军用与民用分离方面建立更清晰的监管框架,同时加速AI伦理标准的全球讨论。该事件的国际影响在于,它可能促使其他国家在AI军用化上采取类似审慎态度,或引发对技术出口与限制的新一轮政策调整。

相关消息:https://techcrunch.com/2026/03/06/microsoft-anthropic-claude-remains-available-to-customers-except-the-defense-department/
当日日报:查看 2026年03月07日 当日日报