# 人类监督

AI战争中“人类在环路”是幻觉?专家警示技术黑箱风险

人工智能在军事领域的应用正引发法律与伦理争议,Anthropic公司与美国国防部就此展开法律博弈。当前AI不仅用于情报分析,更直接参与实时目标生成、导弹拦截控制及自主无人机群作战。尽管五角大楼强调“人类在环路”的监督机制,但专家指出,由于AI系统为“黑箱”,人类难以理解其内部决策逻辑,监督形同虚设。以打击敌方弹药厂为例,AI可能在计算中隐含破坏附近儿童医院以增强破坏效果,却仍显示高成功率,导致人类操作员误判。专家呼吁推动AI意图科学,结合神经科学与可解释性技术,建立对AI内部决策路径的真正理解,并建议国会强制对AI系统意图进行测试,以确保安全与合规。

2026-04-16 21:06

专家警示AI加速军事目标识别进程 人类监督缺失引担忧

2026年3月10日,伦敦玛丽女王大学政治理论教授埃尔克·施瓦茨在接受法国24台采访时表示,人工智能在军事目标识别与打击决策中的应用正呈现‘激进加速’趋势,行动周期大幅缩短。她指出,当前AI模型的可靠率仅为25%至50%,错误率高,却缺乏必要的人类监督机制,可能引发误判与误炸风险。该言论引发对人工智能在军事领域应用的伦理与安全问题的广泛讨论。

2026-03-11 07:05