← 返回

人工智能主导战争决策 美军称系统“傲慢”仅需人类验证

2026年4月17日,据意大利媒体披露,人工智能已在美军作战系统中扮演核心角色,能够自主选择目标、武器并下达作战指令,决策速度极快。五角大楼官员称该系统“傲慢”,人类仅需进行最终“验证”。此发展引发对自动化战争伦理、人类控制权和军事安全的广泛担忧,凸显人工智能在现代军事中的深度渗透。

人工智能主导战争决策 美军称系统“傲慢”仅需人类验证

2026年4月17日,意大利媒体披露,人工智能已在美国军事指挥系统中实现深度应用,能够自主选择作战目标、武器类型并下达攻击指令,决策过程以极高速度完成。

据报道,五角大楼内部将此类系统描述为“傲慢”(arrogant),强调其自主性与决策独立性。尽管系统仍需人类最终“验证”(validation),但实际作战决策权已高度集中于人工智能算法,人类仅扮演监督角色。

该技术变革标志着现代战争模式的深刻转型。人工智能通过实时数据分析、态势感知与预测建模,在战场环境中提供近乎瞬时的战术响应。然而,其快速决策能力也引发对误判、失控与伦理风险的担忧。

军事专家指出,此类系统可能降低人类决策门槛,提高军事行动速度,但也可能在复杂局势中加剧冲突升级风险。目前,美军尚未公开具体部署细节,但相关技术已在多个作战单元中测试应用。

该发展引发国际社会对自动化武器系统、人机协同边界及战争法适用性的广泛讨论,多国正在推动制定人工智能军事应用的国际规范。

编辑点评

此次美军人工智能系统在战争决策中的深度应用,标志着军事自动化进入新阶段。其核心意义在于,作战指挥权正从人类转向算法,尽管仍有‘人类验证’环节,但决策主导权实质已转移。这种‘傲慢’系统的出现,反映了美军在技术制高点的追求,但也暴露了对失控风险的潜在容忍。

从国际角度看,该技术若被广泛复制或扩散,可能打破现有战略平衡。若其他国家缺乏类似能力,则可能面临不对称威胁;若多国竞相部署,将加剧军备竞赛风险,甚至可能触发‘算法战争’——系统间自动对抗,人类干预滞后。

此外,该发展挑战传统战争法和国际人道法。当人工智能自主选择攻击目标时,责任归属、误伤预防与战争伦理面临根本性重构。未来,联合国及国际组织或需加快制定人工智能军事应用的全球规范,以防止技术失控。

长期来看,人类在战争中的角色将从‘决策者’转向‘监督者’,这既是技术进步的必然,也是战略安全的重大挑战。各国在推进军事AI的同时,必须同步建立透明、可解释、可问责的机制。

相关消息:https://www.repubblica.it/esteri/rubriche/la-sottile-linea-rossa/2026/04/17/news/guerra_intelligenza_artificiale_droni-425288016/
当日日报:查看 2026年04月17日 当日日报