美国国防部将Anthropic列为国家安全供应链风险 企业宣布将提起诉讼
美国国防部(在特朗普政府时期被称为“战争部”)已正式将人工智能公司Anthropic列为“国家安全供应链风险”,引发该公司强烈反对。Anthropic首席执行官达里奥·阿莫迪在声明中表示,该决定“缺乏法律依据”,公司“别无选择,只能在法院提起挑战”。
阿莫迪强调,该指定不影响大多数Anthropic客户,并指出公司一直与联邦政府合作,为前线作战人员提供情报分析、建模模拟、作战规划、网络行动等支持。
此次争议起因于Anthropic技术可能被用于大规模国内监控或自主武器系统(如无人机)的担忧。此前,Anthropic与联邦政府签署了一份2亿美元的合同,但要求政府保证其技术不用于上述用途,遭政府拒绝,随后被威胁列为供应链风险,最终落实该措施。特朗普随后签署行政命令,要求所有联邦机构停止使用Anthropic的AI产品。
阿莫迪承认内部备忘录泄露,并确认公司与国防部已重启谈判。若谈判失败,公司将协助政府完成过渡。同时,他提及美国政府与OpenAI的协议,称连OpenAI首席执行官萨姆·奥特曼也认为该协议“令人困惑”,并因用户强烈反应被迫回应。
阿莫迪表示,当前最重要的是确保作战人员和国家安全专家在重大作战行动中不丧失关键工具。Anthropic将无偿向“战争部”及国家安全机构提供模型,并由工程师持续支持,直至被允许为止。
此前《华尔街日报》报道,美国军方已使用Anthropic的Claude模型协助对伊朗实施打击行动。
编辑点评
此次美国国防部对Anthropic的指定及后续冲突,凸显了人工智能技术在军事应用中的伦理与安全边界争议。在特朗普政府强化对AI技术监管的背景下,该事件不仅涉及企业与政府的法律博弈,更折射出全球在AI军用化、自主武器系统控制权、以及技术主权方面的深层分歧。若Anthropic成功挑战该指定,可能重塑美国联邦机构对AI企业的采购标准;若政府胜诉,则可能为其他国家设立先例,推动全球AI军事监管框架的加速构建。同时,该事件对OpenAI等同类企业构成警示,未来与政府合作将面临更严格的伦理审查与使用限制。长期看,AI在国家安全领域的应用将更趋规范化,但技术垄断与战略竞争也将加剧,对国际军控机制构成挑战。