特朗普宣布禁止Anthropic与联邦政府合作 同时五角大楼据称使用其AI助手筹备对伊朗军事行动
2026年3月16日,美国总统特朗普宣布,科技公司Anthropic将被禁止参与任何联邦政府项目。该禁令涵盖该公司所有与政府相关的业务合作,包括合同、数据共享及技术支持。
与此同时,据可靠消息来源透露,美国国防部(五角大楼)在筹备对伊朗的军事行动期间,正使用Anthropic开发的AI聊天机器人Claude协助制定作战方案、分析情报及模拟攻击场景。此举引发舆论对政府政策与实际操作之间存在明显矛盾的质疑。
该禁令发布于美伊紧张关系持续升级的背景下。尽管白宫未说明禁令的具体原因,但分析人士认为,此举可能与国家安全、数据隐私或技术依赖风险相关。值得注意的是,此事件并非孤立,此前已有多个政府机构被发现使用AI工具进行军事或情报工作,但未公开披露。
FRANCE 24科技记者夏洛特·拉姆指出,这一政策与实践的脱节,暴露了美国在AI监管与国家安全战略之间的协调难题。她强调,尽管政府试图通过行政手段控制AI技术的使用,但在实际操作中,AI工具已被深度嵌入军事决策流程。
相关消息由FRANCE 24于2026年3月1日首播,2026年3月16日更新发布。此事件已引起国际社会对AI在现代战争中角色的广泛讨论。
编辑点评
此事件凸显了美国在AI战略应用与监管政策之间的深层矛盾。一方面,特朗普政府试图通过行政命令限制特定技术公司的政府合作,旨在强化对AI技术的管控;另一方面,五角大楼在关键军事行动中实际依赖该公司的AI产品,反映出国家战略对前沿技术的深度依赖。这种‘说一套做一套’的政策模式,不仅削弱了政府公信力,也可能引发法律与伦理争议。从国际视角看,此类事件加剧了全球对AI军事化趋势的担忧,尤其在美伊紧张局势持续的背景下,AI技术可能成为冲突升级的加速器。未来,各国或将加速制定AI武器化管控框架,以防止技术滥用。同时,这一事件也促使企业重新评估其与政府合作的边界,可能推动AI行业更严格的内部合规与透明度机制。