Anthropic首席执行官批评五角大楼将其列为“供应链风险”
美国人工智能公司Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)于2026年2月28日回应美国国防部及白宫的最新决定,称将该公司列为“供应链风险”并禁止其产品用于国防承包业务的做法“前所未有”且“具有惩罚性”。
阿莫迪在接受CBS采访时表示,Anthropic反对其AI模型被用于大规模国内监控和完全自主武器系统,即无需人类干预即可开火的武器平台。他强调:“这些是美国民众的基本权利:不受政府监视的权利,以及军事指挥官自主决定战争的权利,而非将决策权完全交给机器。”
尽管如此,阿莫迪澄清,他并不反对未来若外国军队开始使用全自动化武器,美国也应具备相应能力,但目前AI技术在军事环境中的可靠性尚不足以支持完全自主运行。
同日,美国“战争部长”彼得·赫格塞思(Pete Hegseth)宣布,Anthropic被认定为“国家安全供应链风险”,并立即生效禁止任何与美国军方有业务往来的承包商、供应商或合作伙伴与Anthropic进行商业活动。
数小时后,竞争对手OpenAI宣布与美国国防部达成协议,将部署其AI模型至军事网络。OpenAI首席执行官山姆·阿尔特曼(Sam Altman)在社交媒体上公布了该协议,但随即引发网络批评,主要担忧AI被用于大规模监控和侵犯个人隐私。
该事件凸显了美国在AI技术军事化应用上的政策分歧与伦理争议,同时反映出政府与科技企业在国家安全与技术创新之间的博弈。
编辑点评
此次事件标志着美国在AI军事化应用上进入新阶段,其核心矛盾在于技术自主性与伦理边界之间的张力。将Anthropic列为“供应链风险”并转向OpenAI,不仅是一次商业选择,更折射出美国国防部对AI技术供应商的国家安全审查机制正在强化。这一决定虽未直接引发军事冲突,但其象征意义重大:政府开始主动干预AI技术的军事应用路径,以控制潜在风险。从国际角度看,此举可能促使其他国家重新评估自身AI军事化策略,尤其是在自主武器系统开发领域。此外,OpenAI承接国防合同后面临的舆论反弹,反映出公众对AI技术被用于监控和战争的高度敏感,这可能在未来影响科技企业的战略决策。长远来看,若此类审查常态化,或推动全球AI军备竞赛中的“伦理合规”成为新竞争维度,从而重塑国际安全格局。