专家警示AI加速军事目标识别进程 人类监督缺失引担忧
2026年3月10日,伦敦玛丽女王大学政治理论教授埃尔克·施瓦茨在接受法国24台采访时表示,人工智能在军事目标识别与打击决策中的应用正呈现“激进加速”趋势,行动周期大幅缩短。
施瓦茨指出,当前AI模型的可靠率仅为25%至50%,这意味着系统错误频发。然而,此类高风险决策过程中缺乏有效的人类监督机制,可能引发误判与误炸风险,对国际安全构成潜在威胁。
她强调,AI系统的快速响应能力虽提升了军事效率,但若缺乏人工干预与复核,可能导致不可逆的后果。此番言论引发国际社会对人工智能在军事领域应用的伦理、安全与法律框架的广泛讨论。
该议题正值多国加速推进AI军事化应用之际,相关技术标准与监管机制尚未完善,凸显全球治理缺口。
编辑点评
此次关于AI军事化应用的警示具有重要国际意义。当前全球多国正加速部署AI驱动的军事系统,尤其在目标识别、战场决策与自动化打击领域,技术迭代速度远超伦理与法律监管的构建速度。施瓦茨教授指出的25%至50%可靠率,揭示了AI系统在高风险军事场景中存在极高的误判率,而缺乏人类监督则可能将这种风险转化为现实危害。
这一问题不仅关乎单一国家的军事安全,更涉及全球战略稳定。若AI系统在冲突中自主作出攻击决策,可能引发误判升级,甚至导致局部冲突扩大化。同时,缺乏透明度与责任机制的AI军事系统也对现有国际法体系构成挑战。
长远来看,国际社会亟需建立统一的AI军事应用规范,包括强制的人类监督机制、透明度标准与责任追溯框架。当前时机已成熟,应推动联合国或相关国际组织牵头制定《人工智能军事应用行为准则》,以避免技术失控引发的全球性危机。