Anthropic的Mythos模型遭未经授权用户访问
据彭博社报道,一小部分未经授权的用户通过第三方承包商关联权限及网络技术手段,成功访问了Anthropic公司尚未公开的Mythos模型。
Anthropic表示正在调查此事,目前未发现其自身系统受到波及,访问仅限于第三方供应商环境。这些用户通过在Discord私密频道内协作,利用网络搜索工具和对模型命名模式的推测,结合Mercor公司数据泄露事件中获取的信息,定位并访问了Mythos模型。
该用户群体具备合法访问Anthropic部分模型的权限,系为某合同公司评估AI模型而获得。他们主要兴趣在于测试新模型功能,未进行网络安全相关测试,而是尝试构建简易网站以规避检测。
该群体同时掌握多个未发布Anthropic模型的访问权限。
Mercor是一家为多家顶级AI开发者提供训练服务的初创公司,其数据泄露事件暴露了Anthropic模型命名的格式规律,为此次访问提供了关键线索。
Anthropic尚未确认具体受影响的模型数量或数据范围,但强调未发现恶意行为或系统级入侵。
编辑点评
此次事件凸显了大型AI模型在研发与部署周期中面临的安全挑战。尽管Anthropic强调访问未影响其主系统,但第三方供应商环境的漏洞暴露了AI产业链中权限管理的薄弱环节。用户通过合法权限与网络技术结合的方式获得未发布模型,反映出当前AI模型迭代速度与安全防护机制之间存在明显脱节。
从全球科技格局看,AI模型的泄露可能影响企业技术优势的保密性,尤其在生成式AI竞争日益激烈的背景下,未经授权访问可能加剧技术扩散风险。同时,此类事件也对AI安全标准提出更高要求,企业需重新评估供应链安全、权限分级及模型部署前的隔离机制。
未来,类似事件或促使监管机构加强对AI模型生命周期管理的规范,尤其是在涉及敏感数据和未发布技术时。同时,AI公司可能加大对模型访问日志、行为分析及异常检测系统的投入,以防范“合法权限+技术手段”组合的灰色攻击。
值得注意的是,该事件虽未造成直接系统破坏,但已引发行业对AI模型“前发布阶段”安全防护的广泛讨论,其长期影响可能体现在技术治理框架的调整上。