Anthropic放弃核心安全承诺,调整AI研发政策
AI公司Anthropic宣布放弃其2023年制定的《负责任扩展政策》中关于‘在安全措施未达标前不训练AI系统’的核心承诺。首席科学家Jared Kaplan表示,鉴于AI技术快速发展,若竞争对手加速推进,单方面承诺已不切实际。
新政策要求公司安全水平至少与竞争对手持平或超越,并仅在认为自身处于领先且存在重大灾难性风险时延迟开发。政策调整获CEO Dario Amodei及董事会一致通过。
公司还计划每三至六个月发布详细‘风险报告’,并推出‘前沿安全路线图’,以公开未来安全目标。Chris Painter,AI评估非营利组织METR的政策主管,在审阅早期草案后表示,此举表明Anthropic“认为其安全计划需进入紧急应对模式,因为风险评估与缓解方法正落后于技术能力进步速度”。
编辑点评
Anthropic此次政策调整标志着AI行业安全理念的重大转变。过去,该公司以‘安全优先’为旗帜,被视为行业标杆,如今却因技术竞赛压力而转向‘相对安全’策略,反映出AI发展速度已远超现有安全框架的适应能力。这一变化可能引发连锁反应,促使其他AI企业重新评估其安全承诺,或导致行业整体安全标准出现松动。从国际角度看,美国在AI竞赛中占据领先位置,此类调整可能影响全球AI治理格局,尤其是在中美科技竞争背景下,中国AI企业可能面临更大的技术追赶压力与安全合规挑战。未来,国际社会或将推动更统一的AI安全标准,以应对因企业自主决策导致的监管真空。