谷歌推出专用AI训练与推理芯片,挑战英伟达领先地位
谷歌周三宣布,其第八代张量处理单元(TPU)将首次分离AI模型训练与推理任务,分别推出专用芯片,以更高效满足AI代理快速发展的需求。两款芯片均将于今年晚些时候推出。
谷歌高级副总裁兼AI与基础设施首席技术官阿明·瓦哈达特在博客中表示:“随着AI代理的兴起,我们认为社区将从专用于训练和推理的独立芯片中获益。”
新训练芯片性能较第七代Ironwood TPU提升2.8倍,同价格下实现更高效率;推理芯片性能提升80%。谷歌新推理芯片名为TPU 8i,每芯片配备384MB静态随机存取存储器(SRAM),是Ironwood的三倍,与Cerebras等公司采用的技术类似。
谷歌CEO桑达尔·皮查伊在博客中称,该架构旨在“以低成本高效支持数百万AI代理并发运行,提供高吞吐量与低延迟。”
谷歌自2015年起研发AI专用芯片,2018年起向云客户提供TPU服务。目前,TPU已被 Citadel Securities用于量化研究软件,美国能源部17个国家实验室采用基于TPU的AI共科学家软件,Anthropic也承诺使用多吉瓦级谷歌TPU资源。
尽管谷歌未直接与英伟达芯片性能对比,但此举显示科技巨头在AI芯片自研领域持续发力。英伟达此前在3月宣布,通过200亿美元收购Groq获得的硅技术,将推动其下一代Groq 3 LPU硬件实现快速响应用户请求。
亚马逊、微软、Meta等公司也在推进自研AI芯片,如亚马逊的Inferentia和Trainium,微软第二代AI芯片,Meta与Broadcom合作开发多版本AI处理器。
DA Davidson分析师9月估算,谷歌TPU业务与DeepMind AI部门合计估值约9000亿美元。
编辑点评
谷歌此次将TPU训练与推理功能分离,标志着AI硬件架构从通用化向专业化演进的关键一步。此举不仅回应了AI代理时代对低延迟、高并发的迫切需求,也反映出科技巨头对英伟达在AI芯片市场垄断地位的系统性挑战。SRAM的大量应用凸显了内存带宽在AI推理中的核心作用,谷歌与Cerebras、Groq等公司的技术路径趋同,显示行业正形成以SRAM为核心的新一代AI芯片范式。
从全球产业格局看,谷歌此举强化了其在云服务与AI基础设施领域的整合优势,尤其对依赖其云平台的企业客户形成更强黏性。同时,TPU在能源、金融、研究等关键领域的应用落地,表明AI硬件正从消费端向工业级、科学级场景渗透,其战略价值超越单纯技术竞争。
未来,随着更多企业自研AI芯片(如Meta与Broadcom合作、微软第二代芯片),AI硬件生态将呈现“多极化”趋势。英伟达仍具领先优势,但谷歌、亚马逊等云巨头的垂直整合能力,以及对特定场景的定制优化,可能在细分市场形成差异化突破。长期看,AI芯片竞争将从单一性能指标转向能效、成本、生态与场景适配的综合博弈,全球AI基础设施格局或将重塑。