Anthropic调整AI安全政策应对竞争压力
人工智能公司Anthropic于2026年2月25日发布博客文章,宣布调整其核心AI安全政策。该公司表示,原政策因面临过多障碍而难以持续执行。此前,Anthropic承诺无论其他AI开发者是否采取类似措施,均以降低模型绝对风险为原则,自动暂停潜在危险模型的开发。但新政策将不再自动暂停,转而评估竞争对手是否发布具有相似能力的模型,以及行业整体发展动态。
Anthropic指出,当前政策环境日益强调AI竞争力与经济增长,而安全议题在联邦层面尚未形成有效推动。公司强调,其仍致力于推动基于证据、国家安全、经济竞争力和公众信任的AI安全对话,但承认这是一项长期工程,无法随AI能力提升自动实现。
与此同时,美国国防部正施压Anthropic,要求允许军方在无人工监督情况下使用其AI工具,包括大规模监控和自主武器部署。Anthropic在合同谈判中未让步,引发国防部长Pete Hegseth不满,后者威胁终止双方合作关系。据《纽约时报》报道,Anthropic、Google、OpenAI和xAI曾共同参与军用图像分析AI试点项目,尽管Claude是唯一在政府机密系统中运行的聊天机器人,但五角大楼官员称可替换Anthropic。
Anthropic此举反映出AI行业在安全与创新之间的紧张平衡,也凸显了政府机构对AI技术军事化应用的迫切需求与企业安全伦理之间的冲突。
编辑点评
Anthropic此次政策调整反映了全球AI发展中一个关键转折点:安全优先原则正面临商业化竞争与军事化需求的双重压力。在AI技术迭代速度极快的背景下,公司若坚持绝对安全标准,可能在技术竞争中落于下风。此举虽非放弃安全承诺,但实质上是向现实妥协,标志着AI治理从理想主义向实用主义的转向。
美国国防部的施压尤其具有象征意义。军方对AI工具的广泛需求,包括自主武器和无监督监控系统,凸显了AI军事化趋势的加速。Anthropic的立场与国防部长的强硬态度形成尖锐对立,可能预示未来政府与科技企业间在AI伦理与国家安全之间的博弈将更加激烈。
更深层次看,这一事件揭示了全球AI治理框架的缺失。尽管多国政府和企业呼吁建立安全标准,但缺乏强制性机制。当技术能力超越监管速度时,企业被迫在安全、竞争和国家需求间做出权衡。未来,若无国际协调机制或强制性监管,类似调整可能在其他AI公司中蔓延,进而重塑全球AI发展格局。