Anthropic限制其新网络安全AI模型Mythos的访问权限
Anthropic公司于周二宣布,其新推出的网络安全AI模型Claude Mythos Preview将仅向经过审核的组织开放,包括亚马逊、苹果、微软、Broadcom、思科和CrowdStrike等企业。
该模型具备在大规模识别网络漏洞的能力,但也可能被用于开发攻击手段,因此公司决定限制其发布范围。Anthropic表示,这是该公司首次因模型在网络安全领域的特殊能力而采取限制性发布策略。
此前,该公司因两次数据泄露事件引发对其安全实践的质疑。上月,Mythos模型的相关描述及其他文件被发现存储在公开可访问的数据缓存中。上周,其个人助手Claude Code的内部源代码也被公开。两次事件均被公司归因于“人为失误”。
Anthropic称,Mythos已在合作伙伴中使用数周,虽为通用型模型,但其在网络安全领域的潜力巨大,可能“重塑”行业实践。公司强调,该技术“若落入错误之手,可能带来严重后果”,因此暂无广泛推广计划。
Dianne Na Penn,Anthropic产品管理与研究负责人表示,选定企业将“率先获得在前所未有的规模上识别漏洞和检测代码的能力”。公司同时正在与美国政府讨论该模型的潜在应用。
编辑点评
Anthropic限制Mythos模型的访问权限,反映了人工智能在网络安全领域的双重性——既是防御利器,也可能成为攻击工具。此举凸显了AI技术监管与风险控制的紧迫性,尤其在模型具备自主漏洞挖掘与攻击路径生成能力的背景下。当前全球网络安全格局正经历深刻变化,AI正从辅助工具转向核心基础设施,其扩散可能加剧国家间、企业间的安全博弈。
此次数据泄露事件虽归因于“人为失误”,但暴露出AI研发机构在数据治理与安全流程上的系统性漏洞。在科技巨头竞相布局AI安全防护的背景下,Anthropic的谨慎姿态可能引发行业效仿,推动形成更严格的技术准入与安全审查机制。
更深层看,此事件折射出AI治理的全球挑战。若此类能力被非国家行为体或恶意组织获取,将严重威胁关键基础设施与网络空间稳定。未来,各国或加强针对高风险AI模型的出口管制、使用许可与技术审计,类似美国对AI芯片的出口限制可能扩展至AI模型本身。
从长远看,AI驱动的网络安全将重塑攻防平衡,具备“防御者”与“攻击者”双重属性的模型,其研发与部署必须纳入全球治理框架,避免技术滥用引发新的数字安全危机。