Meta将采用数十万颗AWS Graviton芯片 加速AI基础设施布局
Meta公司与亚马逊云服务(AWS)达成一项为期至少三年的协议,将采用数十万颗AWS Graviton芯片,用于支持其日益增长的人工智能计算需求。该协议标志着Meta在AI基础设施领域的进一步扩张。
Meta每天服务约36亿用户,目前运营32个数据中心,并在俄克拉荷马州新建一个数据中心。为应对AI计算负载激增,Meta正大规模投资硬件基础设施。近期,Meta已与CoreWeave和Nebius签署总额达480亿美元的协议,租赁Nvidia GPU用于训练AI模型。此次与AWS的Graviton芯片合作,将补充其计算架构,尤其针对AI模型训练后的微调任务。
Graviton芯片基于ARM架构,可承担广泛的通用计算任务,性能与Intel或AMD的CPU相当,同时能耗降低60%。AWS副总裁兼杰出工程师Nafea Bshara表示,Graviton已成为众多基础模型公司预训练的首选平台,Meta是最新加入的客户之一。Meta此前已小规模使用Graviton,此次扩容后将成为AWS前五大Graviton客户。
Meta基础设施负责人Santosh Janardhan表示,采用Graviton有助于以高效性能运行代理式AI(agentic AI)所需的CPU密集型工作负载。尽管Meta同时租用Nvidia GPU,但Graviton的引入体现其计算架构的多元化策略。值得注意的是,Meta此次并未因其他CPU短缺而选择Graviton,而是基于性能与效率考量。
与此同时,Meta宣布裁员约8000人,占其员工总数10%,显示其在扩张基础设施的同时进行人力精简。英特尔CEO Lip-Bu Tan亦指出,CPU在AI时代正重新成为不可或缺的基础,需求持续超过供应,凸显传统CPU在AI生态系统中的回归趋势。
编辑点评
此次Meta与AWS在Graviton芯片上的合作,反映了全球科技巨头在AI基础设施领域的战略调整。AI计算需求已从单一依赖GPU扩展至包含CPU、专用芯片在内的多元架构。Graviton芯片的采用,标志着ARM架构在数据中心和AI计算中的影响力持续扩大,挑战传统x86架构的主导地位。此举不仅提升Meta在AI模型微调、推理等场景的效率,也降低能耗与运营成本,契合绿色计算趋势。同时,Meta的AI投资与裁员并行,体现科技企业应对技术变革的典型策略:通过自动化与AI替代人力,实现长期成本优化。从全球看,这一趋势将推动芯片厂商加速研发专用AI硬件,加剧云计算服务商间的竞争,也可能影响全球半导体供应链格局。若更多企业跟进采用ARM架构,或引发数据中心硬件生态的系统性变革。