OpenAI发布最新人工智能模型GPT-5.5
OpenAI于2026年4月23日宣布推出其最新人工智能模型GPT-5.5,称该模型在编程、计算机操作及深度研究能力方面表现更优。公司表示,GPT-5.5能够以更少的指导完成更多任务,尤其在处理不明确问题时展现出更强的自主推理能力。
OpenAI总裁格雷格·布罗克曼在记者简报会上表示:"它能看懂模糊的问题并判断下一步该做什么。在我看来,它正在奠定我们未来使用计算机和开展计算机工作的基础。"
GPT-5.5在数据处理、代码编写与调试、软件操作、在线研究及文档和电子表格创建方面表现出色。OpenAI强调,该模型未达到其“Critical”级网络安全风险阈值,但被归类为“High”风险,可能放大现有安全威胁。
OpenAI副总裁米娅·格拉泽表示,GPT-5.5已接受第三方安全测试和红队演练,涵盖网络与生物风险,且公司已针对日益强大的AI模型持续优化网络安全防护措施。
该模型已在ChatGPT及编码助手Codex中向OpenAI付费用户(包括Plus、Pro、Business和Enterprise用户)开放。API版本将很快推出,但需部署额外的安全机制。
此次发布距离GPT-5.4发布不足两个月,凸显人工智能技术迭代速度加快。OpenAI正面临谷歌、Anthropic等公司的激烈竞争,后者近期推出的Claude Mythos Preview模型引发华尔街关注,其具备识别软件漏洞的能力,促使Anthropic限制其发布范围。
编辑点评
OpenAI发布GPT-5.5标志着人工智能技术进入新一轮加速迭代周期,其在自主推理、编程与系统操作方面的提升,将深刻影响软件开发、自动化办公及科研领域。这一进展不仅反映技术演进,更凸显AI安全治理的紧迫性——尽管未达最高风险等级,但“High”风险分类意味着AI可能被滥用以放大现有威胁,如网络攻击或信息操纵。国际社会正密切关注AI安全标准的建立,美国政府、欧盟及中国科技监管机构均在评估AI模型的风险评估框架。未来,AI竞赛将不仅是技术比拼,更是安全、伦理与治理能力的较量。GPT-5.5的推出可能促使全球科技企业加快模型更新,同时推动各国加强对AI应用的监管,尤其在网络安全、生物安全与自动化决策等敏感领域。