# 负责任扩展政策

AI公司陷入竞争困局 安全承诺面临挑战

美国国防部与AI公司Anthropic因合同中关于AI军事应用的限制条款产生冲突,导致合同终止,Anthropic被列为供应链风险企业。与此同时,Anthropic宣布调整其《负责任扩展政策》,该政策曾旨在以安全为导向控制AI模型发布节奏,但因行业竞争加剧及监管缺位而难以维持。OpenAI则迅速与国防部签约,引发Anthropic CEO Dario Amodei对其动机的质疑。尽管企业强调安全仍受重视,但行业整体正陷入以竞争力和经济利益为导向的“山巅之争”,AI安全共识面临瓦解。欧盟虽有监管动作,美国联邦层面尚未出台具体法规,全球AI安全治理仍处于真空状态。

2026-03-07 03:04

Anthropic放弃核心安全承诺,调整AI研发政策

AI公司Anthropic宣布放弃其2023年制定的《负责任扩展政策》中关于‘在安全措施未达标前不训练AI系统’的核心承诺。首席科学家Jared Kaplan表示,鉴于AI技术快速发展,若竞争对手加速推进,单方面承诺已不切实际。新政策要求公司安全水平至少与竞争对手持平或超越,并仅在认为自身处于领先且存在重大灾难性风险时延迟开发。公司还计划每三至六个月发布详细‘风险报告’,并推出‘前沿安全路线图’。政策调整获CEO Dario Amodei及董事会一致通过,外部专家称此举反映安全评估手段难以跟上技术进步,公司需进入‘紧急应对模式’。

2026-02-25 23:05