初创公司开发军用AI模型 引发伦理与安全争议
美国初创公司Smack Technologies近日宣布完成3200万美元融资,致力于开发专用于军事行动规划的人工智能模型。该公司CEO安迪·马尔科夫(Andy Markoff)表示,其模型将通过模拟战争场景进行训练,以优化任务规划,未来或可实现“决策主导权”优势。
马尔科夫曾担任美国海军陆战队特种作战司令部指挥官,参与过伊拉克和阿富汗的高风险特种作战。他与另一位前海军陆战队成员克林特·阿兰尼斯(Clint Alanis)及前Tinder技术副总裁丹·古尔德(Dan Gould)共同创立Smack。公司采用类似谷歌AlphaGo的强化学习方法,通过专家反馈信号训练模型选择最优策略。
与Anthropic等主流AI公司不同,Smack对军事用途限制持更开放态度。马尔科夫称,通用大模型如Claude虽擅长报告摘要,但缺乏军事数据训练,无法理解物理世界,不具备目标识别能力。他强调,“无人在谈论完全自动化杀伤链”,但AI可协助指挥官自动化繁琐的计划制定流程。
当前,美国及30多个国家已部署不同程度自主武器系统,包括导弹防御系统。然而,专家警告AI在高风险环境下的可靠性问题。伦敦国王学院一项实验显示,大语言模型在战争模拟中倾向于升级核冲突。未来生命研究所专家安娜·赫尔(Anna Hehir)指出,AI无法可靠区分战斗人员与平民,更无法识别投降行为,因此不适合用于关键作战决策。
美国国防部与Anthropic因AI军事使用限制问题发生冲突,导致后者被国防部长彼得·赫格塞斯(Pete Hegseth)认定为供应链风险。马尔科夫认为,战争环境充满不确定性,完全按计划执行的情况极为罕见,AI应作为辅助工具而非主导决策者。
近期俄乌冲突凸显低成本半自主系统的重要性,美国海军已在波斯湾测试新型自主系统以识别伊朗支持的无人机。军用AI的发展正面临技术突破与伦理监管之间的紧张平衡。
编辑点评
这一新闻揭示了全球军用人工智能发展的关键转折点。随着Smack等初创公司专注于军事场景优化,AI正从通用大模型向专用军事系统转型,这标志着技术应用从‘辅助决策’迈向‘主动规划’,可能重塑未来战争形态。美国国防部与Anthropic的分歧,反映出政府与科技企业对AI军事伦理边界的不同认知,凸显了政策制定的滞后性。俄罗斯与乌克兰冲突中半自主系统的广泛应用,预示着未来战争将更加依赖低成本、快速部署的AI系统,对传统军事力量构成挑战。然而,伦敦国王学院的实验揭示了AI在危机情境下可能加剧冲突升级的风险,而未来生命研究所的警告则强调了当前AI系统在目标识别与伦理判断上的根本缺陷。长期来看,若缺乏国际共识与严格监管,军用AI可能引发‘技术军备竞赛’,增加误判与意外冲突概率,对全球安全格局构成系统性威胁。