五角大楼与Anthropic就Claude使用问题产生分歧
2026年2月15日,美国军方正与多家AI企业就技术使用权限展开谈判。Axios最新报道显示,五角大楼要求OpenAI、Google、xAI和Anthropic允许美军将相关AI技术用于'所有合法军事目的',但Anthropic作为最坚决的反对者,可能面临2亿美元合同被取消的风险。
据悉,特朗普政府已向上述四家公司提出相同要求。Axios援引匿名官员消息称,其中一家公司已同意军方诉求,另外两家则表现出一定程度的灵活性。而Anthropic的强硬立场引发关注,该公司发言人向Axios表示,讨论范围仅限于'自主武器系统和大规模国内监控'的政策边界,未涉及具体军事行动使用问题。
1月,《华尔街日报》曾披露Claude模型在抓捕委内瑞拉总统尼古拉斯·马杜罗的美军行动中被使用。目前Anthropic尚未就TechCrunch的置评请求作出回应。
编辑点评
此次争议凸显AI技术军用化在全球化语境下的复杂博弈。美国军方试图通过'合法用途'框架扩大AI应用边界,而Anthropic的抵制可能引发科技企业与政府监管的范式重构。
核心矛盾在于技术伦理与国家安全诉求的平衡。自主武器系统(Lethal Autonomous Weapons)的监管缺失已成全球治理痛点,此次2亿美元合同的谈判或将影响《特定常规武器公约》(CCW)的改革进程。值得关注的是,特朗普政府将AI军事化纳入其'技术优先'战略,这与中国主导的《全球人工智能发展治理倡议》形成制度性对抗。
从市场影响看,若该类合同成普遍模式,可能重塑AI产业格局。企业需在技术自主权与政府需求间寻找平衡点,而军方主导的AI应用标准或将成为全球行业规范的潜在参照。此事件或将加速国际社会对AI军事用途的立法讨论。