OpenAI与美国国防部达成协议 加强安全限制 与此同时特朗普下令停止使用Anthropic技术
2026年2月28日,美国国防部要求人工智能公司Anthropic无条件允许其军事使用Claude模型,但该公司拒绝,称其技术不应用于国内大规模监控或完全自主武器系统。对此,总统特朗普在Truth Social平台发文,命令所有联邦机构立即停止使用Anthropic技术,并威胁将动用《国防生产法》施压,称“我们不需要它,也不想要它,不会再与他们做生意”。
特朗普进一步警告,若Anthropic在规定期限内未配合,将面临重大民事和刑事后果。国防部要求其在美东时间周五下午5:01(格林尼治时间22:01)前同意条件,否则将被列为“供应链风险”,该标签通常用于敌对国企业。Anthropic回应称将对任何“供应链风险”认定提起诉讼,并强调其立场不变。
与此同时,OpenAI首席执行官萨姆·奥尔特曼宣布与国防部达成协议,其模型使用将遵循“禁止国内大规模监控”和“人类应对使用武力负责”的安全原则。奥尔特曼在X平台发文称,这些原则已纳入协议。国防部尚未回应媒体置评请求。
国防部长彼特·赫格塞斯称Anthropic“傲慢与背叛”,并下令禁止任何与美军合作的承包商、供应商或伙伴与Anthropic开展商业活动。众议院民主党领袖哈基姆·杰弗里斯批评此举为“侵犯隐私”,并称Anthropic展现了勇气。数百名OpenAI和Google DeepMind员工联署公开信,呼吁行业团结抵制国防部要求,称其试图分化企业以施压妥协。
事件凸显AI技术发展与国家安全、伦理规范之间的深层矛盾,可能对全球AI监管格局产生深远影响。
编辑点评
此次事件标志着美国政府与AI科技企业之间首次爆发公开、尖锐的伦理与法律冲突,其核心矛盾在于国家安全需求与技术自主权、伦理底线之间的博弈。特朗普政府以《国防生产法》为工具施压,意在强化对AI技术的战略控制,但Anthropic的坚决抵制和OpenAI的“有条件合作”策略,反映出科技界对军事滥用AI的普遍警惕。此举若被广泛效仿,可能催生全球AI监管的“美国例外主义”模式,迫使其他国家在安全与创新之间做艰难权衡。
从国际影响看,这一事件加剧了AI军用化与民用化之间的割裂风险。美国若持续将AI技术视为战略武器,可能引发其他国家效仿,加速全球AI军备竞赛。同时,科技企业集体发声表明,AI伦理已不仅是内部原则,而是成为国际科技治理的重要议题。未来,各国在AI安全框架设计中,或需更明确地界定“人类监督”与“自主决策”的边界,避免技术失控。
长期而言,此事件可能成为全球AI治理的分水岭。若美国政府成功迫使企业妥协,将削弱科技企业的独立性,可能导致技术发展偏离公共伦理轨道;反之,若企业成功抵御施压,则可能确立“技术伦理优先”的国际范式,推动全球AI治理向更民主、透明的方向演进。