谷歌发现首例由人工智能开发的零日漏洞利用攻击
谷歌威胁情报团队于2026年5月12日发布报告,称其发现了首例黑客利用人工智能开发零日漏洞的案例。该漏洞针对一款未具名的流行开源网络系统管理工具,可绕过其双因素认证机制,攻击者需先获取有效用户凭据。
谷歌在报告中指出,其“高度确信攻击者很可能利用了AI模型来支持该漏洞的发现与武器化”。攻击脚本中包含幻觉内容及典型AI训练数据特征,显示其由大型语言模型(LLM)生成。该漏洞属于“高阶语义逻辑缺陷”,源于开发者硬编码的信任假设,而非常见的内存损坏等实现错误。
报告强调,此类漏洞难以通过传统方法发现,而前沿LLM在识别高阶缺陷和“硬编码静态异常”方面表现突出。谷歌还指出,多个恶意软件家族,如PROMPTFLUX、HONESTCUE和CANFAIL,已利用LLM生成伪装代码以逃避检测。
攻击者正通过自动化流程滥用AI服务,构建工业级攻击体系。他们利用反检测浏览器和账户池服务,大规模绕过安全防护,持续访问高级AI服务。谷歌警告,随着LLM被广泛集成到生产环境,AI软件生态系统本身已成为主要攻击目标,攻击者正聚焦于AI系统的自主技能与第三方数据连接组件。
报告未指明具体攻击者,但指出中国和朝鲜已表现出对利用AI进行漏洞挖掘的显着兴趣。谷歌强调,目前攻击者尚未突破前沿AI模型的核心安全逻辑,但威胁态势正在加剧。
编辑点评
此事件标志着人工智能在网络安全攻防领域进入新纪元——攻击者不仅使用AI辅助分析,更实现了漏洞的自主发现与武器化,这将显着加速网络攻击的自动化与规模化。从全球来看,AI驱动的零日漏洞攻击可能颠覆传统安全防护体系,尤其对依赖双因素认证的金融、加密货币及关键基础设施构成系统性威胁。
中国与朝鲜被点名,反映出全球主要国家对AI安全能力的竞争正在升温。技术层面,LLM在识别高阶逻辑漏洞上的优势,使得传统静态代码分析和渗透测试面临失效风险。同时,攻击者通过账户池与反检测技术实现工业级AI滥用,表明攻防成本结构正在逆转:防御方需应对无限扩展的AI攻击面,而攻击方则通过低成本规模化操作获取优势。
长期而言,该事件可能推动全球网络安全标准重构,催生针对AI训练数据、模型推理过程及API调用的新型监管框架。企业必须重新评估AI系统的安全设计,将AI自身作为攻击目标进行防护。国际社会或需建立AI安全透明度机制,以应对AI武器化带来的跨域风险。