← 返回

五角大楼对Anthropic施压要求开放AI军事应用 被拒后或将其列为供应链风险

美国国防部正对AI公司Anthropic施加压力,要求其允许军方无限制使用其技术,包括用于大规模监控和全自动致命武器系统,否则可能被认定为‘供应链风险’,面临数百亿美元合同损失。Anthropic首席执行官Dario Amodei拒绝该要求,称在技术不可靠的当下无法接受,但愿与国防部合作提升系统可靠性。OpenAI和xAI已同意类似条款,而亚马逊、微软、谷歌等科技公司也逐步放宽对军方和执法机构AI应用的限制。科技员工对此普遍感到道德困境和被背叛,多个组织代表70万名员工联署要求公司拒绝军方要求。若Anthropic最终让步,或引发行业全面转向军事化AI应用,加剧全球对自主武器和大规模监控...

五角大楼对Anthropic施压要求开放AI军事应用 被拒后或将其列为供应链风险

美国国防部正对AI公司Anthropic施加压力,要求其允许军方无限制使用其技术,包括用于大规模监控和全自动致命武器系统,否则可能被认定为“供应链风险”,面临数百亿美元合同损失。Anthropic首席执行官Dario Amodei拒绝该要求,称在技术不可靠的当下无法接受,但愿与国防部合作提升系统可靠性。

OpenAI和xAI已同意类似条款,而亚马逊、微软、谷歌等科技公司也逐步放宽对军方和执法机构AI应用的限制。科技员工对此普遍感到道德困境和被背叛,多个组织代表70万名员工联署要求公司拒绝军方要求。

若Anthropic最终让步,或引发行业全面转向军事化AI应用,加剧全球对自主武器和大规模监控的担忧。目前,美国国防部已要求波音和洛克希德·马丁提供其对Anthropic的Claude模型的依赖情况,以评估是否将其列为供应链风险,甚至可能援引《国防生产法》强制其合作。

Anthropic的立场引发行业广泛讨论。有员工指出,该公司虽未放弃AI军事应用的长期可能性,但坚持“今日不可行”的原则。微软、谷歌、亚马逊等公司员工则表示,企业正为利润牺牲伦理,内部文化已趋于接受监控与军事合作。亚马逊AWS员工称,公司对军方合同的宣传忽略其潜在危害,同时内部员工也被AI系统持续追踪。

2024年,OpenAI已移除其服务条款中对“军事与战争”用途的禁令,并与自主武器制造商Anduril及国防部签约。谷歌、微软等公司亦允许情报与国防机构使用其AI产品,部分甚至与美国移民与海关执法局(ICE)合作,引发员工抗议。

尽管部分公司曾因员工抗议终止合作(如谷歌的Project Maven),但近年来行业整体呈现沉默与顺从趋势。Palantir创始人彼得·蒂尔支持的公司CEO亚历克斯·卡尔普曾公开表示,Palantir的目标是“让合作机构成为世界最佳,必要时恐吓敌人并杀死他们”。

Anthropic目前因专注于企业市场而非消费市场,具备一定抗压能力。但行业观察者普遍质疑其立场能否持久,一旦其妥协,将可能成为AI军事化加速的转折点。

编辑点评

此事件凸显AI技术发展与军事化应用之间的深层冲突,触及全球安全、伦理与技术治理的核心。美国国防部对Anthropic施压,不仅关乎单一公司命运,更代表国家机器对前沿科技的主导意图。若Anthropic屈服,将可能开启AI自主武器系统快速部署的先河,推动全球军备竞赛升级,加剧国际安全风险。

从背景看,美国科技企业近年来逐步放松对政府与军方AI应用的限制,反映出资本与国家权力的深度绑定。OpenAI、xAI、微软、亚马逊等公司纷纷调整政策,以换取巨额政府合同,反映出利润驱动对伦理底线的侵蚀。尤其在特朗普政府推动“技术爱国主义”背景下,企业面临“抗拒即不爱国”的舆论压力,进一步削弱其独立性。

此事件的全球影响在于:首先,可能加速自主武器系统(LAWS)的部署,挑战《特定常规武器公约》等国际法框架;其次,美国对AI军用化的扩张可能引发其他国家效仿,导致AI军备竞赛;第三,科技公司作为关键基础设施供应商,其技术选择将直接影响全球安全格局。若企业普遍放弃监管红线,将使AI技术成为“国家意志”的延伸,而非中立工具。

未来,国际社会需推动制定AI军用领域的全球治理框架,包括透明度机制、人道法约束及技术审查标准。同时,科技企业应建立独立伦理委员会,而非完全屈从于政府或市场压力。Anthropic的抵抗虽具象征意义,但能否持续,将决定AI未来是服务于人类福祉,还是沦为权力工具。

相关消息:https://www.theverge.com/ai-artificial-intelligence/885963/anthropic-dod-pentagon-tech-workers-ai-labs-react
当日日报:查看 2026年02月28日 当日日报