← 返回

Anthropic最危险AI模型落入非授权用户之手

据彭博社报道,Anthropic公司开发的高危AI模型Claude Mythos Preview被一小群未经授权的用户获取,其中一名身份为Anthropic第三方承包商的成员透露,该群体通过利用承包商权限和互联网侦查工具,成功侵入该模型。该模型具备识别并利用主流操作系统和浏览器漏洞的能力,目前仅通过Project Glasswing计划向Nvidia、Google、Amazon Web Services、Apple、Microsoft等企业开放测试权限。Anthropic表示正在调查此事,暂无证据显示攻击已影响其系统,但模型被非法获取的日期恰为4月7日,即公司宣布向有限企业开放测试当天。...

Anthropic最危险AI模型落入非授权用户之手

据彭博社报道,Anthropic公司开发的高危AI模型Claude Mythos Preview被一小群未经授权的用户获取。该模型具备识别并利用主流操作系统和浏览器漏洞的能力,被公司称为“在错误手中可能造成危险”的工具。

一名身份为Anthropic第三方承包商的成员向彭博社透露,该群体通过利用承包商权限,结合“常用互联网侦查工具”,成功侵入该模型。该模型于4月7日由Anthropic正式宣布向有限企业开放测试,同日即被非法获取。

目前,Claude Mythos Preview仅通过Project Glasswing计划向Nvidia、Google、Amazon Web Services、Apple、Microsoft等企业开放测试权限。政府机构也正在关注该技术。Anthropic目前无计划向公众发布该模型,因其存在被武器化的风险。

Anthropic发言人表示,公司正在调查关于通过第三方供应商环境发生未经授权访问的报告,暂时没有证据显示该事件影响公司系统,或超出第三方供应商环境范围。

该非法获取的群体成员活跃于一个专门收集未发布AI模型信息的Discord频道。他们已使用该模型多日,并向彭博社提供了截图和实时演示作为证据,但据称未用于网络安全目的以规避检测。此外,该组织还获取了其他未发布的Anthropic AI模型。

编辑点评

此次事件凸显了AI技术在快速发展过程中面临的安全与监管挑战。Claude Mythos Preview具备系统级漏洞探测和利用能力,一旦落入恶意行为体手中,可能对全球网络安全构成系统性威胁。尽管Anthropic限制了模型的访问权限,但第三方承包商权限被滥用,暴露出供应链安全的薄弱环节。这类事件可能促使各国加强对高风险AI模型的监管框架建设,例如推动AI安全认证、强制风险评估和访问审计机制。同时,该事件也加剧了科技公司与黑客社区之间的“猫鼠游戏”,未来可能促使AI开发者采用更严格的模型隔离、访问控制及行为监控技术。从长远看,若此类高危AI模型频繁泄露,或引发国际社会对AI军备竞赛的担忧,推动多边协议或出口管制的形成。

相关消息:https://www.theverge.com/ai-artificial-intelligence/916501/anthropic-mythos-unauthorized-users-access-security
当日日报:查看 2026年04月22日 当日日报