美军在对伊朗空袭中使用Anthropic AI系统 尽管特朗普政府已下令禁用
美国军方在对伊朗发动重大空袭行动中使用了Anthropic公司的Claude人工智能模型,该行动发生于特朗普总统下令联邦机构停止使用该公司系统仅数小时之后。
据《华尔街日报》援引知情人士透露,美国中央司令部(CENTCOM)等军事指挥机构利用Claude进行情报分析、目标识别及战场模拟。该系统已深度嵌入国防操作流程,即便在政府将其列为潜在安全风险并要求切断合作的情况下,仍持续被使用。
此前,Anthropic与五角大楼签订价值最高达2亿美元的多年合同,并通过与Palantir及亚马逊云服务(AWS)合作,获得处理机密情报和作战流程的资质。该系统还曾参与1月在委内瑞拉的行动,协助抓捕总统尼古拉斯·马杜罗。
紧张局势因国防部长彼得·赫格塞斯要求公司允许军方无限制使用其AI模型而加剧。Anthropic首席执行官达里奥·阿莫迪拒绝该请求,称某些应用触及公司伦理底线,即使意味着失去政府业务。
作为回应,五角大楼开始寻找替代供应商,已与OpenAI达成协议,部署其AI模型于机密军事网络。
在周六的采访中,阿莫迪表示,公司反对将AI用于大规模国内监控和全自动武器系统,认为军事决策应由人类掌控,不应完全交由机器执行。
编辑点评
此次事件凸显人工智能在现代军事行动中的深度嵌入,即使在政策禁令下,技术系统的惯性仍导致其持续运行。美国军方对AI的依赖已从辅助分析扩展至核心作战流程,反映出AI在国防战略中的不可逆地位。特朗普政府对Anthropic的禁令,本质上是国家安全与技术伦理之间的博弈——政府强调对供应链风险的控制,而企业则坚持对AI应用的道德边界。这一冲突预示未来各国在AI军事化问题上将面临更复杂的权衡。此外,五角大楼转向OpenAI,意味着美国国防AI生态正经历重大重构,可能影响全球AI安全标准和军民技术转化格局。长期来看,AI在军事领域的使用将重塑国际安全架构,引发关于自主武器、决策透明度和军备竞赛的新一轮讨论。