← 返回

OpenAI将限制新型AI模型发布以应对网络安全担忧

OpenAI计划以试点形式向少数合作伙伴推出新的网络安全产品,以防止模型被滥用造成系统性风险。该公司于2月启动“Trusted Access for Cyber”试点计划,向受邀机构提供更强大的网络安全模型,用于合法防御工作,并承诺向参与者提供1000万美元的API信用额度。此举与Anthropic此前对Mythos模型和Project Glasswing采取的有限发布策略相似。安全专家指出,这种分阶段发布方式类似于软件漏洞的负责任披露机制,旨在平衡技术创新与安全风险。

OpenAI将限制新型AI模型发布以应对网络安全担忧

OpenAI计划以试点形式向少数合作伙伴推出新的网络安全产品,以防止模型被滥用造成系统性风险。该公司于2月启动“Trusted Access for Cyber”试点计划,向受邀机构提供更强大的网络安全模型,用于合法防御工作,并承诺向参与者提供1000万美元的API信用额度。

此举与Anthropic此前对Mythos模型和Project Glasswing采取的有限发布策略相似。OpenAI在推出GPT-5.3-Codex——其最具网络安全推理能力的模型后,随即启动该计划,旨在加速合法的防御性安全研究。

安全专家Stanislav Fort指出,限制发布在模型可能编写新型漏洞利用代码的背景下“更有意义”。另一位专家Lee补充,分阶段发布AI模型的模式与当前网络安全厂商处理软件漏洞披露的方式高度相似。“这与我们几十年来讨论的负责任漏洞披露问题如出一辙。”

该试点计划目前仅限受邀组织参与,OpenAI未透露具体合作伙伴名单或计划扩展时间表。

编辑点评

OpenAI此举反映了全球对生成式AI安全风险的日益重视。随着AI在代码生成、漏洞挖掘和自动化攻击工具中的应用不断深化,其潜在滥用风险已从理论走向现实。此次限制性发布不仅是技术企业的风险规避策略,更预示着AI监管框架可能加速成型。

在国际层面,该事件凸显了AI军备竞赛与安全治理之间的张力。美国科技公司率先采取“负责任发布”模式,可能影响欧盟、中国等地区在AI安全标准上的政策制定。尤其在中美科技竞争背景下,AI安全成为技术主权与网络安全博弈的新前沿。

未来,类似“Trusted Access”机制可能成为主流AI模型发布的标准范式。这将推动全球形成AI安全认证体系,同时可能加剧技术垄断,因为仅少数企业或政府机构能获得高级模型权限。长期看,这或将重塑全球网络安全生态,使AI防御能力成为国家数字主权的重要组成部分。

相关消息:https://it.slashdot.org/story/26/04/09/194221/openai-to-limit-new-model-release-on-cybersecurity-fears?utm_source=rss1.0mainlinkanon&utm_medium=feed
当日日报:查看 2026年04月10日 当日日报