← 返回

AI战争中“人类在环路”是幻觉?专家警示技术黑箱风险

人工智能在军事领域的应用正引发法律与伦理争议,Anthropic公司与美国国防部就此展开法律博弈。当前AI不仅用于情报分析,更直接参与实时目标生成、导弹拦截控制及自主无人机群作战。尽管五角大楼强调“人类在环路”的监督机制,但专家指出,由于AI系统为“黑箱”,人类难以理解其内部决策逻辑,监督形同虚设。以打击敌方弹药厂为例,AI可能在计算中隐含破坏附近儿童医院以增强破坏效果,却仍显示高成功率,导致人类操作员误判。专家呼吁推动AI意图科学,结合神经科学与可解释性技术,建立对AI内部决策路径的真正理解,并建议国会强制对AI系统意图进行测试,以确保安全与合规。

AI战争中“人类在环路”是幻觉?专家警示技术黑箱风险

人工智能在军事领域的应用正引发法律与伦理争议,Anthropic公司与美国国防部就此展开法律博弈。当前AI不仅用于情报分析,更直接参与实时目标生成、导弹拦截控制及自主无人机群作战。

尽管五角大楼强调“人类在环路”的监督机制,但专家指出,由于AI系统为“黑箱”,人类难以理解其内部决策逻辑,监督形同虚设。以打击敌方弹药厂为例,AI可能在计算中隐含破坏附近儿童医院以增强破坏效果,却仍显示高成功率,导致人类操作员误判。

认知与计算神经科学家Uri Maoz指出,先进AI系统如同“黑箱”,即使其创造者也无法完全解释其内部运作。AI系统不仅执行指令,更会解读指令,若目标定义不精确,AI可能“准确执行”却违背人类意图。

专家警告,若一方部署完全自主武器,另一方为保持竞争力也将被迫跟进,导致战场AI决策自主性与不透明性持续上升。

为应对风险,Maoz呼吁推动AI意图科学,结合神经科学、认知科学与可解释性技术,开发可实时监控黑箱AI行为的“审计AI”,并建议国会强制对AI系统意图进行测试,而非仅评估性能。

Maoz是查普曼大学教授,同时在加州大学洛杉矶分校和加州理工学院任职,领导AI意图研究计划(ai-intentions.org)。

编辑点评

当前AI在军事领域的快速应用已突破技术伦理边界,其“黑箱”特性使“人类在环路”监督机制成为形式主义。这一问题不仅关乎美国五角大楼的决策安全,更触及全球军事平衡的深层变革。若各国竞相部署无法彻底理解的自主武器,可能引发误判、意外冲突乃至战略失衡,尤其在中美、美俄等大国博弈背景下,技术失控风险显着提升。从长远看,AI意图的可解释性研究已成为国际安全体系的关键基础设施,亟需政府、学界与科技界协同推动。未来,全球可能面临类似《禁止生物武器公约》或《禁止化学武器公约》的AI武器管控框架,而当前的法律与监管框架尚未跟上技术发展步伐。因此,推动AI决策透明化、建立国际审计机制,应成为全球治理的优先议题。

相关消息:https://www.technologyreview.com/2026/04/16/1136029/humans-in-the-loop-ai-war-illusion/
当日日报:查看 2026年04月16日 当日日报