美国国防部正式将Anthropic列为供应链风险企业
美国国防部已正式通知Anthropic公司,将其及其产品列为供应链风险实体,据彭博社报道,消息来自国防部一位高级官员。
该决定源于数周来AI实验室与国防部之间的冲突。Anthropic首席执行官达里奥·阿莫迪拒绝允许美军使用其AI系统进行大规模监控美国人,或用于无需人类参与目标锁定和开火决策的全自主武器系统。国防部则主张其AI使用不应受私营承包商限制。
供应链风险认定通常用于外国对手。该标签要求任何与五角大楼合作的公司或机构必须证明其未使用Anthropic的模型。
此举可能对Anthropic自身及美军运营造成重大影响。Anthropic是目前唯一具备处理机密数据能力的前沿AI实验室。美国军方目前正依赖其Claude模型支持伊朗军事行动,用于快速处理作战数据。Claude是Palantir公司Maven智能系统的核心工具,中东地区军事操作人员广泛使用该系统。
将Anthropic列入供应链风险,被多位批评者称为前所未有的举动。前特朗普政府AI顾问迪恩·鲍尔称此举措为“美利坚共和国的死亡哀鸣”,指责政府放弃战略清晰性,转而采取“蛮横部落主义”,对本土创新者比对外国对手更严苛。
数百名OpenAI和谷歌员工联名呼吁国防部撤销该决定,并敦促国会反对此举,认为这可能构成对美国科技公司的不当权力滥用。他们同时呼吁公司领导人团结一致,继续拒绝国防部使用其AI模型进行国内大规模监控或“无人监督的自主杀伤行为”的要求。
TechCrunch已联系Anthropic寻求置评,尚未获得回应。
在争议期间,OpenAI已与国防部达成协议,允许美军使用其AI系统“用于所有合法目的”。但部分OpenAI员工担忧该措辞模糊,可能引发与Anthropic所拒用场景相同的问题。
阿莫迪称国防部此举“具有报复性和惩罚性”,并称其拒绝向总统特朗普捐款可能是引发矛盾的原因。OpenAI总裁格雷格·布罗克曼则是特朗普的坚定支持者,近期向MAGA Inc.超级政治行动委员会捐赠2500万美元。
编辑点评
此次美国国防部将本土AI企业Anthropic列为供应链风险,标志着政府与科技界在AI军事应用伦理边界上出现严重裂痕。此举突破了传统国家安全框架,将国内创新者与外国对手置于同等风险等级,引发对政府权力扩张和科技自主权的广泛担忧。从国际角度看,这一事件凸显了美国在AI治理上的内部矛盾:一方面推动AI技术军事化以维持技术霸权,另一方面又面临伦理与民主监督的挑战。若此类先例被固化,可能削弱美国科技企业的全球竞争力,削弱其技术中立性形象,并促使其他国家在AI军事化政策上采取更激进路线。长期而言,该事件可能推动全球AI治理体系向“国家主权主导”方向演变,而非技术中立的国际协作模式。