特朗普政府切断与Anthropic合作 美国AI安全争议升级
2026年3月1日,美国国防部宣布援引国家供应链安全法案,将人工智能公司Anthropic列入黑名单,禁止其参与任何军事项目。该决定由国防部长Pete Hegseth作出,理由是该公司创始人Dario Amodei拒绝允许其技术用于美国公民的大规模监控或自主武装无人机,后者可无需人类干预选择并击杀目标。
总统特朗普随后在Truth Social平台发布指令,要求所有联邦机构“立即停止使用Anthropic技术”。此举导致Anthropic可能失去一项价值高达2亿美元的合同,并被排除在与其他国防承包商的合作之外。Anthropic已表示将向法院提起诉讼,称该供应链风险认定“法律依据不足”,且“此前从未公开用于任何美国公司”。
Anthropic于2021年由Dario Amodei与多位前OpenAI研究人员共同创立,其核心定位为“安全优先”的AI公司。然而,该公司自2024年起即与美国国防及情报机构开展合作,引发外界对其安全承诺真实性的质疑。MIT教授、未来生命研究所创始人Max Tegmark在采访中指出,包括Anthropic、OpenAI、Google DeepMind和xAI在内的主要AI公司,均曾公开承诺安全优先,但近年逐步放弃这些原则,如OpenAI已删除“安全”一词于其使命声明,xAI解散安全团队,Anthropic本周亦撤销“在确保无害前不发布强大AI系统”的承诺。
Tegmark批评AI行业长期抵制监管,成功游说政府维持AI领域“近乎零监管”的状态,导致行业陷入“企业免责”困境。他以食品卫生监管与AI监管的对比为例,指出“若AI公司能声称‘我不会卖三明治,我卖的是AI女友’,政府便无权干涉”,而这种监管真空可能导致AI失控风险。
他还指出,中国正在全面禁止“拟人化AI”,而非因美国压力,而是出于对青少年群体影响的担忧。他认为,超级人工智能的失控对中美两国政府均构成国家安全威胁,而非单纯竞争工具。目前,GPT-5据研究已达到AGI(通用人工智能)路径的57%,进展远超预期。
截至发稿,OpenAI创始人Sam Altman公开表示支持Anthropic的立场,称其拥有相同“红线”。Google和xAI尚未表态。专家认为,此事件或成为AI行业“真实立场”的试金石,未来或将推动全球AI监管框架的建立。
编辑点评
此次事件凸显了AI治理的深层矛盾:技术发展速度远超制度建设,且行业自我监管的承诺缺乏法律约束力。特朗普政府以国家安全为由制裁国内AI企业,看似极端,实则反映美国对AI军事化应用的敏感性。Anthropic曾以“安全优先”自居,却与军方合作多年,其立场的矛盾性暴露了行业在商业利益与伦理承诺之间的摇摆。Max Tegmark的分析切中要害——AI公司长期抵制法规,导致监管真空,最终反噬自身。这种‘自我免责’模式在其他行业早已被证明风险极高,如烟草、药物和食品领域。当前国际社会尚未形成统一AI治理框架,而中美在AI军用化、伦理监管等领域存在根本分歧。中国正推动全面禁止拟人化AI,而美国则在军用AI上持续投入,反映出不同治理哲学。未来,若AI发展失控,可能引发全球安全危机。因此,此次事件不仅是美国国内的政治与技术博弈,更可能成为全球AI监管体系重构的催化剂。各国需尽快建立跨国协作机制,避免重蹈核武器竞赛的覆辙。