美国国防部将Anthropic列为国家安全供应链风险 OpenAI达成新军事合作协议
2026年2月28日,美国联邦政府下令所有联邦机构立即停止使用Anthropic公司的人工智能技术,原因是双方在合同谈判中因Anthropic提出的两项限制条款未能达成一致:禁止用于大规模国内监控和全自主武器系统。
美国战争部长皮特·赫格塞斯(Pete Hegseth)在X.com平台发布声明,批评Anthropic“傲慢与背叛”,称其“试图以‘有效利他主义’的说辞强压美国军方”,并宣布将Anthropic列为“国家安全供应链风险”。该措施立即生效,禁止任何与美国军事部门有业务往来的承包商、供应商或合作伙伴与Anthropic开展商业活动。
赫格塞斯强调:“美国士兵的生命安全、战备状态和国家安全,永远高于硅谷的意识形态。”他声称,Anthropic的真正意图是“对美军的作战决策实施否决权”,并称这一决定“最终且不可逆转”。
Anthropic公司回应称,任何来自国防部的“威胁或惩罚”都无法改变其立场,并表示将对“供应链风险”认定提起法律挑战。公司指出,这是美国历史上首次将本国企业公开列为供应链风险,此前该措施仅用于美国对手国家。Anthropic强调,自2024年6月起,其模型已部署于美国政府机密网络,支持美军作战。公司认为,当前前沿AI模型尚不足以可靠用于全自主武器系统,否则将危及美军与平民安全;同时,大规模国内监控违反基本权利。
同日,OpenAI宣布已与美国国防部达成协议,其AI模型将部署于军事机密网络。OpenAI首席执行官山姆·阿尔特曼(Sam Altman)表示,协议保留了公司对国内大规模监控的禁令,并要求“人类对武力使用负责”,包括自主武器系统。阿尔特曼称,国防部同意这些原则,并已将其纳入法律与政策。OpenAI还将构建技术防护措施,以确保模型行为符合预期。
阿尔特曼呼吁国防部向所有AI公司提供相同条款,并希望局势“通过合理协议而非法律或政府行动化解”。他强调,OpenAI的使命是“尽可能为全人类服务”,并承认世界“复杂、混乱且有时危险”。
编辑点评
此次事件标志着美国政府与科技企业在人工智能军事化应用上的矛盾急剧升级。将本国企业Anthropic列为‘供应链风险’是前所未有的举措,打破了以往仅针对外国对手的惯例,凸显了美国军方在AI技术掌控权上的强硬立场。此举不仅可能引发法律挑战,更可能对美国科技产业的创新自由构成潜在威胁,尤其是在涉及国家安全与伦理边界的问题上。
背景上看,美国正加速推进AI在军事领域的部署,但同时面临伦理与安全风险的双重压力。Anthropic坚持的‘人类监督’与‘禁止大规模监控’原则,实际上与美国军方在部分政策中所倡导的‘负责任使用AI’理念存在交集,却因执行细节和权力边界产生冲突。OpenAI的顺利合作则显示,企业与政府在设定明确伦理框架和责任机制的前提下,仍可达成共识。
未来,这一事件可能成为美国政府监管前沿科技的范本,影响其他国家对AI企业的监管模式。若美国持续采取强硬姿态,恐将抑制国内AI企业的创新活力,甚至引发科技领域‘寒蝉效应’。同时,全球AI军备竞赛中,美国如何平衡安全、效率与伦理,将成为国际社会关注焦点。