Meta推出自研AI芯片 旨在提升数据中心性能与供应链韧性
Meta于2026年3月11日正式公布四款自研人工智能芯片,属于Meta Training and Inference Accelerator(MTIA)芯片家族,标志着该公司在自研算力基础设施方面迈出关键一步。这些芯片由台湾半导体制造公司(Taiwan Semiconductor)代工生产,将主要用于Meta内部AI推理任务,而非训练大型语言模型。
首枚芯片MTIA 300已于数周前部署,用于支持Meta旗下Facebook和Instagram等应用的推荐系统与广告展示等核心任务。MTIA 400已完成测试,即将在Meta数据中心投入使用,单个机架将搭载72颗该芯片,以加速生成式AI相关的图像和视频推理任务。MTIA 450与MTIA 500预计于2027年上线,将集成更多高带宽内存(HBM),以满足日益增长的生成式AI需求。
Meta工程副总裁Yee Jiun Song表示,自研芯片可提升性能与成本效率,同时增强供应链多样性,降低对NVIDIA和AMD等外部供应商的依赖。公司正快速扩展数据中心容量,资本支出(CapEX)巨大,因此需持续部署最先进芯片。MTIA芯片预计可使用五年以上。
目前Meta在全球拥有30个运营及规划中的数据中心,其中26个位于美国,包括路易斯安那州、俄亥俄州和印第安纳州的大型设施。公司还正考虑租赁德克萨斯州Stargate数据中心园区,此前OpenAI与Oracle已放弃该园区扩建计划。
尽管面临HBM内存市场短缺,Song称Meta已确保当前扩张所需供应,并采取多元化供应链策略。公司近期也与NVIDIA和AMD达成多年协议,采购数百万GPU,以应对快速演变的工作负载需求。Meta的自研芯片团队由数百名工程师组成,主要位于美国。
此举与谷歌、亚马逊等科技巨头发展专属ASIC芯片的趋势一致。谷歌于2015年推出TPU,亚马逊于2018年推出自研芯片,而Meta的MTIA芯片目前仅用于内部系统,未开放至云服务客户。
编辑点评
Meta推出自研AI芯片MTIA系列,标志着全球科技巨头在人工智能基础设施自主化竞赛中进入新阶段。此举不仅直接回应了NVIDIA和AMD GPU的高昂价格与供应约束,更反映出算力竞争已从依赖外部供应商转向深度自研ASIC芯片。MTIA芯片聚焦于内部推理任务,与谷歌、亚马逊的云开放策略不同,显示Meta更侧重于控制其核心业务的算力成本与安全性。
从全球影响看,这一战略将重塑AI芯片产业链格局。台积电作为代工方,其在亚利桑那州的新晶圆厂可能成为未来AI芯片生产的关键节点,强化美台在高端半导体领域的合作。同时,Meta对HBM内存的大量需求加剧了全球内存市场的紧张,可能推动三星、SK Hynix和Micron等内存厂商加速扩产或与科技巨头签订长期供应协议。
未来,随着MTIA芯片在2027年全面部署,Meta有望实现其数据中心算力的自主可控,这对全球AI基础设施布局具有深远影响。若其他科技公司跟进,可能引发新一轮芯片自研潮,加剧全球半导体资源竞争。同时,该事件也凸显了人工智能基础设施的战略重要性,可能促使各国加强在AI算力自主方面的政策支持与投资。