特朗普政府禁止国防承包商使用Anthropic的Claude模型 引发AI控制权争议
美国政府在委内瑞拉和伊朗的军事行动中,曾使用由Anthropic公司开发的Claude聊天机器人分析战场数据。然而,特朗普政府近日宣布终止与Anthropic的合作,并禁止所有国防承包商使用Claude模型,理由是该公司坚持不将其技术用于全自动武器或对美国公民进行大规模监控。
该禁令被视为美国政府对本土科技企业的首次重大制裁,引发业界广泛争议。Foundation for American Innovation首席经济学家Samuel Hammond批评称,将Anthropic列为“供应链风险”通常用于针对敌对国家企业,如中国公司,而非美国本土企业。他指出,Anthropic当前是App Store下载量最高的应用,市场表现突出,与特朗普政府所称的“左翼激进分子”形象严重不符。
Anthropic已表示将对国防部提起诉讼,同时努力控制事态影响,捍卫其价值观。Hammond进一步指出,这一禁令违背了自由意志主义的基本原则,即不应人为摧毁特定企业。他强调,关于AI工具最终由谁掌控的问题,需通过民主程序长期解决。
据《金融时报》报道,特朗普政府已起草针对未来政府合同中AI公司的严格规则。此事件标志着美国在人工智能军事化与伦理控制之间矛盾的首次公开爆发,也预示着AI技术主权问题将成为全球科技竞争的核心议题之一。
编辑点评
此事件标志着人工智能技术控制权在全球权力结构中的首次重大政治化。美国政府试图通过行政手段主导AI在国防领域的应用,但与科技企业的价值观冲突暴露了技术自主与国家安全之间的张力。特朗普政府将Anthropic定性为‘供应链风险’,虽在形式上强化了对技术使用的监管,但实质上削弱了美国在AI领域的创新生态,可能加速技术人才和资本向更开放环境的流动。长远看,若类似禁令成为常态,将加剧中美科技脱钩趋势,推动全球形成多极AI治理格局。同时,该事件也凸显AI伦理规范的缺失——当政府与企业对技术边界产生根本分歧时,缺乏透明、民主的协商机制,将使AI发展陷入政治化陷阱。未来,各国需在技术安全、伦理标准与创新活力之间寻求平衡。