← 返回

美国防部长赫格塞斯要求安特罗普公司限期让步 事关AI安全管控

美国国防部长彼得·赫格塞斯要求安特罗普公司(Anthropic)首席执行官达里奥·阿莫德伊在周五晚前同意让美军无限制使用其AI模型,否则将面临严厉处罚。据Axios报道,赫格塞斯在周二的紧张会谈中警告,若无法达成协议,国防部将切断合作并宣布安特罗普为‘供应链风险’,或援引《国防生产法》强制其调整模型以满足军方需求。尽管存在分歧,军方仍因依赖其领先AI模型Claude而维持对话。安特罗普表示愿调整使用政策,但拒绝允许模型用于大规模监控美国公民或开发全自动武器系统。

美国防部长赫格塞斯要求安特罗普公司限期让步 事关AI安全管控

美国国防部长彼得·赫格塞斯已向安特罗普公司(Anthropic)首席执行官达里奥·阿莫德伊发出最后通牒,要求其在周五晚间前同意让美军无限制使用其AI模型,否则将面临严厉处罚。据Axios报道,赫格塞斯在周二的一场紧张会议中明确表示,若无法达成协议,国防部将切断与安特罗普的合作,并将其列为“供应链风险”,或援引《国防生产法》强制该公司调整其AI模型以满足军方需求。


尽管双方在AI安全管控问题上存在激烈分歧,但美国国防部仍因高度依赖安特罗普公司行业领先的AI模型Claude而维持对话。一名国防部官员在会谈前向Axios透露:“我们仍在与他们沟通,唯一原因是我们现在需要他们,而且他们确实非常优秀。”


安特罗普公司方面表示,愿意为国防部调整其使用政策,但坚决反对允许其模型用于对美国公民的大规模监控,或用于开发无需人类干预即可开火的武器系统。此次事件凸显了AI技术在军事应用中的伦理与安全争议,以及政府与科技企业之间在技术控制权上的博弈。

编辑点评

此次美国防部与安特罗普公司的对峙,反映了AI技术在军事领域应用的深层矛盾。一方面,美军亟需先进AI模型提升作战能力,尤其是Claude在自然语言处理和复杂决策支持方面的优势;另一方面,科技公司坚持技术伦理底线,拒绝技术被用于侵犯公民隐私或自动化杀伤系统。这种冲突不仅是技术问题,更是国家治理与技术自主权之间的博弈。


从地缘政治角度看,美国政府试图通过《国防生产法》等工具强化对关键科技企业的控制,体现了其将AI视为战略资产的政策取向。若美国强行推行此类措施,可能引发其他国家效仿,加剧全球AI军备竞赛,同时削弱科技企业对政府的信任。此外,该事件也可能推动国际社会加速制定AI军用伦理准则,以避免技术失控。


长远来看,若美国无法平衡军事需求与技术伦理,可能导致AI研发生态碎片化,企业为规避风险转向更严格的出口管制或技术隔离。这将影响全球AI技术的协作与创新,对国际科技合作构成挑战。同时,安特罗普的立场也可能激励其他科技公司加强技术主权意识,推动形成以伦理为核心的全球AI治理体系。

相关消息:https://tech.slashdot.org/story/26/02/24/1850232/hegseth-gives-anthropic-until-friday-to-back-down-on-ai-safeguards?utm_source=rss1.0mainlinkanon&utm_medium=feed
当日日报:查看 2026年02月25日 当日日报