AI公司陷入竞争困局 安全承诺面临挑战
美国国防部与AI公司Anthropic因合同中关于AI军事应用的限制条款产生冲突,导致合同终止,Anthropic被列为供应链风险企业。该合同原规定禁止国防部使用Anthropic的Claude模型开发自主武器或对美国民众进行大规模监控。目前,美国国防部拟取消这些限制,Anthropic拒绝后,国防部长Pete Hegseth宣布该公司构成供应链风险,禁止联邦机构与其合作。
与此同时,Anthropic于2月24日宣布调整其核心政策《负责任扩展政策》(Responsible Scaling Policy)。该政策曾要求AI模型发布必须与安全措施同步,防止最坏情况的应用,并期望推动行业“向高处竞赛”。但公司承认,该政策未能形成行业共识,因政策环境已转向优先考虑AI竞争力与经济增长,安全议题在联邦层面未获实质性进展。
OpenAI迅速与国防部签署新合同,填补Anthropic留下的空白。Anthropic CEO Dario Amodei称,OpenAI此举实为“削弱我们的立场”,并质疑其真实动机。OpenAI则强调,公司内部安全团队规模扩大,并在模型中内置限制自主武器使用的安全机制。但其无法控制国防部如何使用技术,也未明确安全人员占比是否提升。
尽管企业声称安全仍被重视,但行业整体正陷入以竞争力和经济利益为导向的“山巅之争”。Anthropic首席科学家Jared Kaplan认为,研究实验室中仍有大量人员关注AI向善,安全仍是竞争要素之一。OpenAI首席战略官Jason Kwon指出,安全议题并未消失,但人们正更多关注劳动力影响、经济增长和全球AI可及性等问题。
当前,美国尚未出台联邦AI监管法规,欧盟虽在推进相关立法,全球AI安全治理仍存在真空。Anthropic CEO Amodei此前撰文指出,AI的巨大力量使其极难被人类文明施加有效约束,形成“陷阱”。
编辑点评
此次美国国防部与Anthropic的冲突,暴露了AI技术在国家安全与伦理安全之间的根本性张力。当军事机构将AI视为战场制胜关键,而企业为生存必须迎合需求时,安全承诺便面临现实挤压。这不仅是美国国内政策分歧,更折射出全球AI治理的结构性困境——缺乏统一规范、监管滞后、竞争驱动优先于安全共识。
Anthropic调整其《负责任扩展政策》,标志着行业从“主动安全优先”转向“合规性妥协”,背后是资本与市场的强力推动。OpenAI迅速切入国防部市场,凸显了AI军用需求的紧迫性与商业机会,但也加剧了技术脱缰的风险。若各国相继效仿,将可能触发新一轮AI军备竞赛,威胁全球安全稳定。
从长远看,若无国际协调机制,如联合国框架下的AI军控协议或全球AI安全标准,各国将被迫在安全与竞争力之间做危险权衡。欧盟虽有《人工智能法案》推进,但美国、中国等主要技术大国尚未形成约束性机制,全球AI治理陷入“碎片化”状态。未来,AI安全或将成为地缘博弈的新战场,其失控可能远超传统武器系统。