← 返回

OpenAI采用餐盘级芯片推出异常快速的代码模型,绕过英伟达

OpenAI宣布推出基于Cerebras Wafer Scale Engine 3芯片的Codex-Spark代码模型,该芯片面积相当于餐盘大小。尽管其每秒1000个标记的处理速度相较Cerebras此前的3000个标记较低,但该模型旨在优化开发者代码迭代效率。OpenAI正逐步减少对英伟达的依赖,已与AMD、亚马逊等企业达成协议,并计划推出自研AI芯片。

OpenAI发布新型代码生成模型Codex-Spark

人工智能开发公司OpenAI于2026年2月12日宣布推出名为Codex-Spark的代码生成模型。该模型部署在Cerebras开发的Wafer Scale Engine 3芯片上,单芯片面积相当于餐盘大小,处理速度达到每秒1000个标记。测试数据显示,其在Llama 3.1 70B和GPT-oss-120B模型上的表现分别为每秒2100和3000个标记,反映模型复杂度与硬件适配的挑战。

技术指标与竞争态势

Codex-Spark的推出标志着OpenAI加速迭代代码生成工具。继2025年10月与AMD签署多年协议、2026年11月与亚马逊达成380亿美元云计算合作后,OpenAI本月内已连续发布GPT-5.2和GPT-5.3-Codex版本。此前与英伟达1000亿美元基础设施合作计划进展缓慢,尽管英伟达随后承诺追加200亿美元投资,但OpenAI已对部分英伟达芯片的推理任务效率表示不满。

硬件战略转向

OpenAI在系统层面正构建多元化硬件生态。除自研AI芯片外,公司还与Cerebras等非主流芯片厂商合作,探索更大规模计算架构。技术专家指出,代码生成领域对实时性要求极高,模型速度直接影响开发者生产力。目前尚需观察Codex-Spark在准确率与应用场景上的表现差异。

编辑点评

OpenAI此次技术路线调整折射出全球AI芯片市场的激烈竞争。通过采用非传统架构的餐盘级芯片,该公司试图突破现有硬件性能瓶颈,同时对冲英伟达的技术主导地位。此举或将引发行业连锁反应,推动AMD、Cerebras等芯片厂商加大研发投入。

当前AI代码生成领域正形成关键技术代差,OpenAI、谷歌、Anthropic等头部企业的模型迭代速度已直接影响产业应用门槛。若餐盘级芯片能实现规模化部署,可能重塑全球AI算力供应链格局,缓解美国企业对单一供应商的过度依赖。

值得注意的是,OpenAI的硬件战略转向与中美科技脱钩的深层逻辑存在关联。通过构建自主可控的芯片生态,该公司可能降低未来技术受制于人的风险。然而,硬件适配与算法优化的协同效应仍需时间验证,短期内行业主导权博弈或将持续加剧。

相关消息:https://arstechnica.com/ai/2026/02/openai-sidesteps-nvidia-with-unusually-fast-coding-model-on-plate-sized-chips/