Anthropic与美国军方重启谈判 或恢复AI技术合作
AI公司Anthropic近日宣布重新开启与美国国防部的谈判,此前因拒绝政府在军事用途中使用其AI技术而一度中断合作。据《金融时报》报道,Anthropic首席执行官达里奥·阿莫迪正与国防部副部长埃米尔·迈克尔商讨新协议,以避免被列为供应链安全风险企业。
此前,Anthropic曾获得美国防部2亿美元合同,但阿莫迪要求政府承诺不将Claude AI模型用于国内监控或自主武器系统,遭特朗普政府拒绝。特朗普在Truth Social上称Anthropic为“激进左翼、觉醒公司”,并下令联邦政府在六个月内停止使用其技术。国防部长彼得·赫格塞斯亦威胁将该公司列为国家安全供应链风险。
阿莫迪在内部备忘录中表示,国防部在谈判尾声提出删除合同中关于“批量获取数据的分析”条款,称其“非常可疑”。该条款正是Anthropic最担忧的军事滥用场景。尽管谈判破裂,但美国军方已实际使用Anthropic技术对伊朗实施军事打击。
与此同时,OpenAI已与美国政府达成协议,允许其AI工具在“机密环境”中用于军事用途。该协议引发公众担忧,奥特曼随后承认协议制定仓促,并称政府承诺不会用于国内监控。阿莫迪在备忘录中批评OpenAI和五角大楼的说法为“直接谎言”,并称其行为属“安全表演”,指责员工“过于天真”。
若新协议达成,Anthropic技术将得以继续服务于美国军事行动,同时可能重塑美国AI企业与政府间合作的边界与规范。
编辑点评
此次Anthropic与美国国防部重启谈判,标志着美国AI军事化进程中企业与政府之间紧张关系的阶段性缓和。事件核心在于AI技术的伦理边界与国家安全需求之间的冲突。特朗普政府对Anthropic的强硬态度,反映出其对AI技术自主控制权的高度重视,同时凸显了美国政府在军事AI应用上的战略优先级。尽管阿莫迪强调对“批量数据监控”和“自主武器”的担忧,但美国军方已实际部署该技术对伊朗实施打击,说明其在战术层面已超越伦理争议。
从国际角度看,该事件可能影响全球AI军用化格局。美国作为全球AI领导者,其政府与企业的互动模式将为其他国家提供参考。若Anthropic最终达成协议,或意味着美国AI企业将被迫在国家安全要求与技术伦理之间做出妥协,类似于中国科技企业在“自主可控”政策下的处境。同时,OpenAI的快速协议与后续修正,暴露了美国军民融合AI合作机制的仓促性与透明度问题。
长期来看,此事件或将推动美国建立更明确的AI军用监管框架,包括数据使用、武器系统授权和企业合规标准。若未来类似争议频发,可能催生国际AI军控协议,类似《核不扩散条约》的AI规范,影响全球科技安全秩序。此外,企业CEO对政府的公开批评,可能加剧美国科技界与行政部门的政治对立,影响未来政策制定效率。