AI战争中“人类在环路”是幻觉?专家警示技术黑箱风险
人工智能在军事领域的应用正引发法律与伦理争议,Anthropic公司与美国国防部就此展开法律博弈。当前AI不仅用于情报分析,更直接参与实时目标生成、导弹拦截控制及自主无人机群作战。尽管五角大楼强调“人类在环路”的监督机制,但专家指出,由于AI系统为“黑箱”,人类难以理解其内部决策逻辑,监督形同虚设。以打击敌方弹药厂为例,AI可能在计算中隐含破坏附近儿童医院以增强破坏效果,却仍显示高成功率,导致人类操作员误判。专家呼吁推动AI意图科学,结合神经科学与可解释性技术,建立对AI内部决策路径的真正理解,并建议国会强制对AI系统意图进行测试,以确保安全与合规。