美国军方或利用AI辅助对伊朗军事行动 美以联合行动引发技术与伦理争议
2026年3月1日,据《华尔街日报》报道,美国军方在近期对伊朗的联合军事行动中,可能使用了Anthropic公司开发的人工智能模型Claude,以支持情报分析和作战决策。该行动导致伊朗前最高领袖阿里·哈梅内伊及其他高级官员被击毙。
据美国外交关系委员会研究员迈克尔·C·霍洛维茨(Dr. Michael C. Horowitz)透露,美国中央司令部(CENTCOM)在新兴技术应用方面处于领先位置,此前曾在抓捕委内瑞拉总统尼古拉斯·马杜罗的行动中使用Claude。霍洛维茨认为,AI主要被用于开源情报(OSINT),如实时监控委内瑞拉社交媒体、分析地图信息等,以增强美军作战信息获取能力。
然而,美国国防部与Anthropic的合作已告终止。因该公司拒绝解除防止AI参与致命行动的安全限制,美国政府宣布与其断绝关系。美国总统唐纳德·特朗普在Truth Social平台发文称:“美国绝不会允许一个激进左翼、觉醒主义的公司决定我们伟大军队如何作战和赢得战争!”他强调,国家命运应由美国政府决定,而非“失控的AI公司”掌控。
国防部随后转向OpenAI,计划将ChatGPT部署于其机密网络中。OpenAI首席执行官山姆·阿尔特曼(Sam Altman)在声明中表示,已与“国防部”(特朗普政府已将其更名为“战争部”)达成协议,将提供AI服务用于机密文档处理。
美国国防部研究与工程副部长埃米尔·迈克尔(Emil Michael)表示,军方希望将AI用于所有合法用途,并将其视为与其他技术同等对待。然而,民主、冲突与治理项目高级研究员史蒂夫·费尔德斯坦(Steve Feldstein)警告称,AI系统可能因算法偏见或“幻觉”产生不准确信息,若用于目标识别和致命打击,将带来不可控风险。
此外,以色列军队已在加沙地带广泛运用AI进行目标生成,通过分析手机通话、短信及地理定位等数据,识别哈马斯武装人员位置。费尔德斯坦指出,以色列是“决策支持系统”应用的领先者,其AI系统已深度嵌入军事架构。
AI从文本生成工具演变为现代战争的关键组成部分,加剧了全球对算法战争伦理与安全的担忧。专家呼吁,在技术快速演进的同时,必须建立明确的法律与道德框架,以防范潜在滥用风险。
编辑点评
此次美国与以色列联合军事行动中AI的潜在应用,标志着人工智能正式进入现代战争的‘杀伤链’,其意义远超战术层面。AI从情报分析、后勤调度到目标识别的深度介入,正在重塑军事决策结构。尤其值得注意的是,美国国防部从Anthropic转向OpenAI,反映出军方对AI技术实用性的迫切需求,以及对科技公司道德审查的不耐,这预示未来AI军事化将加速推进。
然而,此过程也暴露出深层矛盾:科技公司对AI安全性的谨慎与军方对效率的追求形成对立。尽管 Anthropic 坚持安全限制,但其被排除出国防合作,说明在国家利益面前,技术伦理可能被置于次要位置。OpenAI 与国防部的合作虽提供短期解决方案,但并未解决AI偏见、幻觉及数据真实性等核心风险。若AI系统在关键战场情报中出现偏差,可能导致误判或平民伤亡,引发国际法争议。
从地缘政治角度看,以色列在加沙地带的AI应用已引发国际人权组织关注,而美国此次行动可能进一步加剧中东紧张局势,同时推动其他国家加速军事AI研发。未来,AI军备竞赛或成为大国博弈的新维度。全球亟需建立多边监管框架,以防止技术失控。此事件不仅是一次军事行动,更是人类迈向‘算法战争’时代的关键转折点。