特朗普下令联邦机构停用Anthropic公司AI技术 因其拒绝军方使用要求
2026年2月27日,美国总统特朗普通过社交媒体宣布,命令联邦政府所有机构立即停止使用人工智能企业Anthropic的技术。此举是对该公司拒绝美国国防部关于放宽其AI技术在军事领域使用限制要求的回应。
Anthropic公司在26日发表声明称,当前技术在大规模监控及完全自主武器等领域存在安全风险,无法确保可靠执行,因此拒绝配合国防部要求。该公司强调其公司章程中包含“负责任的人工智能开发”原则,明确限制技术在高风险军事领域的应用。
特朗普在社交媒体上批评该决定为“左翼狂信者的毁灭性错误”,并表示“我伟大的军队如何作战、如何胜利,不允许任何人干涉”。他同时将Anthropic列入联邦政府采购黑名单,禁止其参与任何政府合同。
美国国防部此前曾要求Anthropic放宽对AI技术军事用途的限制,以便将其应用于战场决策支持、无人系统指挥等场景。但Anthropic方面坚持认为,现有技术尚不足以安全处理涉及人类生命的重大决策。
此事件引发美国国内关于AI伦理、政府监管与企业自主权的广泛讨论,也可能对国际社会在人工智能军控议题上的立场产生影响。
编辑点评
此次事件标志着美国政府与科技企业在人工智能军事化路径上的首次重大公开冲突。特朗普政府以行政命令形式排除Anthropic,反映出其对AI技术军事应用的强力推动,以及对所谓“技术自主权”和“国家安全”的高度优先考虑。这种行政干预方式可能对全球AI治理模式产生示范效应,尤其在美西方国家内部引发关于‘技术主权’与‘企业伦理责任’的深层辩论。
Anthropic的立场代表了科技界对AI军事化的警惕,其强调‘安全边界’和‘人类控制’的主张,呼应了联合国及多国在AI武器化议题上的谨慎态度。然而,特朗普政府的强硬回应则凸显了美国军方对AI技术在战场优势中的迫切需求,尤其是在与中国等对手竞争的背景下。
未来,此类政府与企业之间的摩擦或将成为常态。若美国持续通过行政手段干预企业技术伦理决策,可能削弱科技企业的创新自主性,甚至引发国际科技企业对美投资的重新评估。同时,该事件也可能推动全球范围内AI军控协议的加速谈判,特别是在联合国框架下。
从长期看,这一事件或成为AI治理史上的分水岭——标志着技术伦理不再仅是企业内部议题,而是被国家权力直接介入并重塑的公共政策领域。