美国防部拟扩大AI军事应用 安德罗尼克公司担忧模型被用于无人员干预的致命任务
美国国防部正推动扩大人工智能技术在军事领域的应用,国防部长彼特·赫格塞斯(Pete Hegseth)希望获得对安德罗尼克公司(Anthropic)AI模型的无限制访问权限,以增强军事作战能力与效率。
赫格塞斯在上月发布的AI战略备忘录中指出,“人工智能驱动的战争与能力发展将在未来十年重塑军事事务的性质”,并强调美国必须在AI军用领域保持领先,以应对外国对手,使士兵“更具杀伤力和效率”。他指出,AI竞赛正由私营部门的快速创新所推动。
然而,安德罗尼克公司对国防部的计划表示担忧。知情人士透露,该公司反对将最先进的AI模型用于无人员干预(human-in-the-loop)的致命军事任务,认为当前技术尚不稳定,不足以承担此类高风险任务。此外,安德罗尼克还敦促制定新规则,限制AI用于大规模国内监控,即使现行法律允许此类行为。
该公司与美国国防部有2亿美元的合同。若被排除在国防供应链之外,将对国家安全项目及企业自身运营产生重大影响,同时波及Palantir等依赖其模型的合作伙伴。
据悉,安德罗尼克的Claude模型曾用于今年1月美国抓捕委内瑞拉领导人尼古拉斯·马杜罗的行动,该事件引发公司对模型具体使用方式的询问。安德罗尼克首席执行官阿莫德(Amodei)在周二的会议中向赫格塞斯强调,公司从未反对合法的军事行动,但希望确保技术应用符合安全与伦理标准。美国国防部对此未予置评。
编辑点评
此次美国国防部与安德罗尼克公司围绕AI军事应用的博弈,凸显了全球AI军用化进程中的核心矛盾:技术潜力与伦理风险之间的平衡。美国作为全球AI技术与军事力量的双重领导者,其AI战略的推进将直接影响国际安全格局。若美国成功实现AI在军事领域的深度整合,将可能重塑现代战争形态,提升作战效率,但也可能加剧军备竞赛,引发其他国家仿效,从而增加误判与冲突风险。
安德罗尼克公司的立场代表了科技企业对AI军用边界设定的普遍关切。技术的不可预测性与自主决策的伦理问题,使得无人员干预的致命系统成为全球监管焦点。此次事件可能推动美国乃至全球在AI军事应用上建立更严格的法律与伦理框架,成为未来国际军控谈判的重要议题。
从长远看,美国国防部对AI的依赖程度加深,将在战略层面改变其与私营科技公司的关系——从采购方演变为技术合作伙伴,甚至可能影响科技公司的研发方向。若监管缺位,可能导致AI技术在军事领域的“野蛮生长”,进而威胁全球安全秩序。因此,此次事件不仅是技术讨论,更是关乎未来战争形态与国际安全治理的重大转折点。