人工智能与伊朗战争:谁下达了击杀命令?
美国与以色列在针对伊朗的军事行动初期,于前四天内锁定并打击的目标数量,已超过反ISIS联盟在伊拉克和叙利亚前六个月行动中的总和。这一战况速度之快,凸显现代战争中人工智能(AI)在目标识别与打击决策中的深度参与。
据《纽约时报》报道,一次误击导致伊朗境内一所女子学校被炸,造成175人遇难。尽管初步调查指向过时情报,但AI系统在目标确认和杀伤指令生成中的角色引发广泛争议。技术公司Anthropic正与美国政府就其AI工具在军事用途中的边界展开激烈争执,引发公众对科技企业是否应为AI驱动的战争行为承担法律责任的讨论。
专家指出,AI在战场上的应用正从辅助决策转向核心决策,模糊了人类指挥官与机器系统之间的责任边界。法律界人士强调,即便AI提供建议,最终“击杀命令”仍应由人类裁决,否则可能违反国际人道法,构成战争罪。
此次事件不仅暴露AI在军事应用中的技术局限,也凸显全球在AI治理、军事伦理与跨国责任划分方面缺乏统一框架。未来战争的“人机共决”模式或将重塑国际法与战争规则。
编辑点评
此次事件标志着现代战争进入AI深度参与的新阶段。美国与以色列对伊朗的快速打击行动,展示了AI在目标识别、战场分析和打击规划中的高效性,但也暴露出系统性风险:当AI基于过时数据提供决策建议,人类指挥官若未充分审查,可能引发严重误判。175名平民在女子学校遇难事件,不仅是个别悲剧,更成为检验AI军事应用伦理边界的试金石。
从国际关系角度看,AI在战争中的角色正在挑战现有国际法框架。现行法律以‘人类指挥官责任’为基础,但若AI系统具有自主决策能力,责任归属将变得复杂。这促使各国必须重新定义‘指挥链’,并推动建立AI军事应用的全球规范。
技术企业如Anthropic与政府的争端,揭示了‘技术中立’在现实中的脆弱性。当AI工具被用于军事,开发者与使用者的责任如何划分,是未来全球治理的重要议题。若无清晰监管,科技企业可能成为战争罪行的间接共犯。
长远来看,此次事件可能推动国际社会建立AI军事应用的‘红黄线’机制,类似核武器的国际管控,以防止AI技术被滥用。否则,战争可能不再由人类意志主导,而由算法决定,这将彻底改变战争本质与国际安全格局。