← 返回

人工智能与伊朗战争:谁下达了击杀命令?

美国与以色列在对伊朗军事行动的前四天内,打击目标数量超过反ISIS联盟在伊拉克和叙利亚前六个月的总和,引发对人工智能在战争中作用的广泛讨论。《纽约时报》指出,一次误击导致一所女子学校175人丧生,可能源于过时情报,但AI在目标识别和杀伤指令中的角色引发质疑。技术公司如Anthropic与美国政府在AI工具使用上的争端也浮现,涉及技术伦理、战争责任及科技企业对军事应用的监管责任。专家讨论AI在现代战争中的决策边界及潜在法律后果。

人工智能与伊朗战争:谁下达了击杀命令?

美国以色列在针对伊朗的军事行动初期,于前四天内锁定并打击的目标数量,已超过反ISIS联盟在伊拉克和叙利亚前六个月行动中的总和。这一战况速度之快,凸显现代战争人工智能(AI)在目标识别与打击决策中的深度参与。

据《纽约时报》报道,一次误击导致伊朗境内一所女子学校被炸,造成175人遇难。尽管初步调查指向过时情报,但AI系统在目标确认和杀伤指令生成中的角色引发广泛争议。技术公司Anthropic正与美国政府就其AI工具在军事用途中的边界展开激烈争执,引发公众对科技企业是否应为AI驱动的战争行为承担法律责任的讨论。

专家指出,AI在战场上的应用正从辅助决策转向核心决策,模糊了人类指挥官与机器系统之间的责任边界。法律界人士强调,即便AI提供建议,最终“击杀命令”仍应由人类裁决,否则可能违反国际人道法,构成战争罪。

此次事件不仅暴露AI在军事应用中的技术局限,也凸显全球在AI治理、军事伦理与跨国责任划分方面缺乏统一框架。未来战争的“人机共决”模式或将重塑国际法与战争规则。

编辑点评

此次事件标志着现代战争进入AI深度参与的新阶段。美国与以色列对伊朗的快速打击行动,展示了AI在目标识别、战场分析和打击规划中的高效性,但也暴露出系统性风险:当AI基于过时数据提供决策建议,人类指挥官若未充分审查,可能引发严重误判。175名平民在女子学校遇难事件,不仅是个别悲剧,更成为检验AI军事应用伦理边界的试金石。

从国际关系角度看,AI在战争中的角色正在挑战现有国际法框架。现行法律以‘人类指挥官责任’为基础,但若AI系统具有自主决策能力,责任归属将变得复杂。这促使各国必须重新定义‘指挥链’,并推动建立AI军事应用的全球规范。

技术企业如Anthropic与政府的争端,揭示了‘技术中立’在现实中的脆弱性。当AI工具被用于军事,开发者与使用者的责任如何划分,是未来全球治理的重要议题。若无清晰监管,科技企业可能成为战争罪行的间接共犯。

长远来看,此次事件可能推动国际社会建立AI军事应用的‘红黄线’机制,类似核武器的国际管控,以防止AI技术被滥用。否则,战争可能不再由人类意志主导,而由算法决定,这将彻底改变战争本质与国际安全格局。

相关消息:https://www.france24.com/en/tv-shows/the-debate/20260312-who-gives-the-kill-order-ai-and-the-war-in-iran
当日日报:查看 2026年03月13日 当日日报