OpenAI宣布其模型将通过亚马逊云服务提供 与微软独家合作结束
2026年4月28日,OpenAI宣布其人工智能模型将通过亚马逊云服务(AWS)提供,标志着其与微软长达数年的独家云服务合作正式结束。新服务将通过AWS的Bedrock平台上线,允许客户使用OpenAI的模型及Codex代码生成工具。AWS首席执行官Matt Garman表示,这一举措回应了客户长期需求。
OpenAI首席执行官Sam Altman因在奥克兰出庭未亲自出席发布会,但通过视频致辞感谢AWS团队。此前,OpenAI已与AWS达成380亿美元及500亿美元的多阶段投资协议,并计划使用AWS的Trainium芯片进行AI训练。该决定被视为OpenAI扩大云服务覆盖、增强企业灵活性的重要一步。
双方还宣布推出“Amazon Bedrock Managed Agents powered by OpenAI”,支持构建具备记忆功能的复杂定制化AI代理。此举将使企业客户能更灵活地部署AI解决方案,不受单一云平台限制。
OpenAI与微软此前的独家协议曾限制其服务范围,但2026年4月27日双方宣布调整,允许OpenAI在任何云平台运行产品并设定收入分成上限。亚马逊CEO Andy Jassy在X平台表示该消息“非常有趣”,并称更多细节将在28日公布。
2025年11月,OpenAI宣布与AWS达成380亿美元合作,随后在2026年2月进一步宣布AWS投资500亿美元,OpenAI将采用AWS的Trainium芯片进行模型训练。这一系列合作发生在《华尔街日报》报道OpenAI未达内部用户和营收目标之后,当时AI硬件股如英伟达、博通股价下跌。OpenAI高管对此回应称报道“荒谬”,并强调与微软在算力采购上高度协同。
编辑点评
OpenAI与亚马逊云服务(AWS)达成深度合作,标志着人工智能基础设施领域的重大格局变化。此前OpenAI与微软的独家云服务协议长期主导市场,但此次转向多云策略,反映出AI公司对市场灵活性与客户覆盖的迫切需求。通过接入AWS Bedrock,OpenAI不仅拓展了企业客户群体,也增强了自身抗风险能力,避免过度依赖单一云平台。此举可能加剧云服务提供商之间的AI竞赛,推动AWS、Azure、Google Cloud等平台在AI模型支持、算力成本和开发者工具上的差异化竞争。
从国际科技生态看,这一事件凸显AI基础设施正从‘封闭合作’向‘开放多云’演进。企业客户日益要求跨平台部署能力,以避免供应商锁定。OpenAI的策略调整,也印证了其在商业化进程中的成熟,从早期依赖微软算力,转向主动构建多边生态。未来,AI模型的部署将更加去中心化,可能重塑全球云服务市场格局。
长期来看,此事件可能推动全球AI产业链的重新配置。AWS与OpenAI的深度绑定,将加速Trainium芯片等自研算力的普及,对英伟达等传统AI芯片厂商形成竞争压力。同时,多云策略或促使AI模型标准化,提升跨平台互操作性,为全球开发者创造更开放的创新环境。