← 返回

OpenAI发布新网络安全模型GPT-5.4-Cyber并公布三大防御战略

2026年4月14日,OpenAI宣布推出专为网络安全防御设计的新模型GPT-5.4-Cyber,并公布其网络安全战略三大支柱:客户身份验证系统、迭代部署机制及安全技术投资。此举正值竞争对手Anthropic发布Claude Mythos Preview模型后,因潜在被黑客利用风险而采取私有化发布,并联合谷歌等企业成立行业联盟应对AI对网络安全的影响。OpenAI强调现有安全机制足以支持当前模型广泛部署,但未来需更全面防御体系。公司还提及与组织合作的有限发布机制、自动化TAC系统、安全AI代理Codex Security、2023年启动的网络安全资助计划及对Linux基金会的捐赠等举措。

OpenAI发布新网络安全模型GPT-5.4-Cyber并公布三大防御战略

2026年4月14日,OpenAI宣布推出专为数字防御设计的新模型GPT-5.4-Cyber,并公布其网络安全战略的三大核心支柱。该消息发布于竞争对手Anthropic上周宣布其新款Claude Mythos Preview模型将仅限私有化发布之后,后者称该模型可能被黑客和恶意行为者利用,引发行业对AI安全的广泛讨论。

OpenAI在博客中表示,当前的安全防护机制已足以降低现有模型的网络风险,支持广泛部署。公司强调,未来更强大的模型可能需要更严格的部署控制和更全面的防御体系。为实现这一目标,OpenAI提出三大战略方向:第一,建立“了解你的客户”(Know Your Customer)验证系统,结合与特定组织合作的有限发布机制和2026年2月推出的自动化系统Trusted Access for Cyber(TAC),在保障安全的同时实现访问的广泛化和民主化。

第二,实施“迭代部署”策略,即通过谨慎发布、收集真实世界反馈并持续优化新能力,提升模型对越狱攻击和其他对抗性攻击的韧性,增强防御能力。第三,加大在软件安全和数字防御领域的投资,以应对生成式AI快速普及带来的挑战。

OpenAI表示,该倡议是其整体安全体系的一部分,涵盖2026年3月推出的AI安全代理Codex Security、自2023年起实施的网络安全资助计划、近期对Linux基金会的捐赠以支持开源安全,以及旨在评估和防范前沿AI造成严重危害的“准备框架”(Preparedness Framework)。

与此同时,Anthropic上周的声明在安全专家中引发争议。部分专家认为其担忧被夸大,可能助长对黑客的敌视情绪,进一步集中科技巨头权力。但也有观点指出,当前安全防御体系本就存在漏洞,生成式AI的普及可能使恶意行为者以更快速度和更广范围实施攻击,凸显网络安全形势的紧迫性。

编辑点评

OpenAI此次发布GPT-5.4-Cyber模型及三大网络安全战略,标志着生成式AI在安全领域的应用正从被动防御转向主动构建防御生态。此举不仅是对Anthropic私有化发布Claude Mythos的直接回应,更折射出全球AI安全治理的深层博弈。在AI能力突破性增长背景下,技术巨头如何平衡创新与风险,成为国际社会关注焦点。OpenAI强调‘民主化访问’与‘迭代部署’,试图在安全与开放间寻找平衡,但其‘逐步增强防御’的长期承诺仍面临技术演变速度与监管滞后之间的张力。该事件可能推动跨国企业、政府及国际组织加速建立AI安全标准,尤其是在供应链安全、开源代码保护和对抗性攻击防御等领域。未来,若类似AI模型被广泛用于网络攻击,可能引发全球性安全危机,促使各国重新评估其网络防御架构,甚至推动新的国际AI治理机制形成。

相关消息:https://www.wired.com/story/in-the-wake-of-anthropics-mythos-openai-has-a-new-cybersecurity-model-and-strategy/
当日日报:查看 2026年04月15日 当日日报