← 返回

美国国防部计划允许AI公司在机密数据上训练模型

美国国防部正探讨在安全环境中允许生成式AI公司使用机密数据训练军事专用模型,以提升其在目标分析等任务中的准确性。目前AI模型如Anthropic的Claude已在机密环境中用于回答问题,但尚未从数据中学习。新计划将使模型直接接触机密情报,如监视报告和战场评估,可能带来安全风险。国防部计划先在非机密数据(如商业卫星影像)上测试模型效果,再推进至机密数据。该举措是国防部加速成为‘AI优先’作战力量的一部分,背景为与伊朗冲突升级。OpenAI和xAI已获准在机密环境运行模型。专家指出,若管理不当,机密信息可能通过模型泄露给无权限部门,但通过严格隔离可降低向公众泄露风险。

美国国防部计划允许AI公司在机密数据上训练模型

美国国防部正在讨论建立安全环境,允许生成式AI公司对其模型进行训练,使用机密数据以开发军事专用版本。该计划由MIT Technology Review获得消息,目前尚未得到国防部官方确认。

当前,AI模型如Anthropic的Claude已在机密环境中用于分析伊朗目标等任务,但仅限于基于已有数据回答问题,尚未从数据中学习。若允许训练,意味着敏感情报将嵌入模型本身,AI公司也将更深入接触机密数据。

一名美国国防部官员表示,此类训练有望提升模型在特定任务中的准确性和效率。国防部已与OpenAI和Elon Musk的xAI达成协议,允许其模型在机密环境中运行,并推动成为“AI优先”的作战力量,背景是与伊朗的冲突持续升级。

训练将发生在经认证可处理机密政府项目的数据中心,AI模型与机密数据配对。尽管数据所有权归国防部,但AI公司人员在极少数情况下、具备适当安全许可时可能接触数据。

在正式推进前,国防部计划先在非机密数据(如商业卫星影像)上评估模型表现。此前,军方已广泛使用计算机视觉AI识别无人机和飞机采集的图像内容,联邦机构也已向企业授予相关训练合同。

AI公司如Anthropic已推出政府专用版本(如Claude Gov),支持多语言和安全环境运行。此次披露是首次明确表明OpenAI、xAI等大型语言模型公司可能直接在机密数据上训练政府专用模型。

Aalok Mehta(Wadhwani AI Center主任,曾任职于Google和OpenAI)指出,训练模型使用机密数据将带来新风险,最主要的是机密信息可能通过模型泄露给无权限的军事部门。例如,模型可能将某特工姓名泄露给不应获知该信息的部门,从而威胁特工安全。若多个部门共享同一模型,风险更难完全控制。

不过,Mehta认为,通过严格隔离措施,可将信息泄露至互联网或AI公司(如OpenAI)的风险降至极低。政府已具备部分基础设施,如Palantir获合同建立安全环境,使官员可向AI提问机密问题而不将数据回传至AI公司。但将此类系统用于模型训练仍是新挑战。

国防部在国防部长Pete Hegseth一月发布的备忘录推动下,正加速AI应用,包括在作战中用于目标排序和打击推荐,以及在行政事务中起草合同和报告。

Mehta指出,大量当前由人类分析师完成的任务可能需要AI训练,涉及机密数据。例如,学习识别图像中细微线索,或关联新信息与历史背景。这些数据可能来自情报机构收集的海量多语言文本、音频、图像和视频。

Mehta强调,具体哪些军事任务需要AI训练机密数据尚难明确,因国防部有强烈动机保密,避免其他国家了解其在该领域的具体能力。

编辑点评

美国国防部推动AI模型在机密数据上训练,标志着军事人工智能应用进入新阶段。此举不仅提升作战效率,也引发重大安全与治理挑战。将机密情报嵌入模型,意味着信息存储从文档转向AI自身,一旦模型被滥用或泄露,风险远超传统数据泄露。同时,AI公司与政府的深度协作,模糊了商业与国家机密的边界,可能催生新的监管难题。从全球角度看,此举可能推动其他国家加速军事AI部署,形成新一轮军备竞赛。若美国成功实现“AI优先”作战体系,将重塑现代战争形态,尤其在情报分析、目标识别、战场决策等核心环节。然而,若管理不善,模型泄露机密信息可能导致外交危机或军事被动。因此,该计划的实施速度与安全机制的成熟度,将成为未来国际安全格局的关键变量。

相关消息:https://www.technologyreview.com/2026/03/17/1134351/the-pentagon-is-planning-for-ai-companies-to-train-on-classified-data-defense-official-says/
当日日报:查看 2026年03月18日 当日日报