谷歌发布Gemma 4开源AI模型并切换至Apache 2.0许可
谷歌于2026年4月2日宣布推出新一代开源AI模型Gemma 4,包含四种不同规模的版本,旨在优化本地运行性能。该公司同时宣布放弃此前自定义的Gemma许可,全面采用Apache 2.0开源协议,以回应开发者对AI许可限制的长期不满。
Gemma 4的两个大型模型——26B混合专家(Mixture of Experts)和31B密集型(Dense)——设计用于在单块80GB的NVIDIA H100 GPU上以bfloat16格式无量化运行。尽管该GPU价格高达2万美元,但其仍属于本地硬件范畴。若经量化处理,这两款模型亦可适配消费级GPU。
谷歌称,Gemma 4特别注重降低推理延迟。其中,26B混合专家模型仅在推理时激活38亿参数,显着提升每秒处理token数。31B密集型模型更侧重模型质量,预期开发人员将针对特定用途进行微调。
另外两款模型——有效2B(E2B)和有效4B(E4B)——专为移动设备设计,运行时有效参数分别为20亿和40亿。谷歌表示,Pixel团队与高通(Qualcomm)及联发科(MediaTek)合作,优化了这些模型在智能手机、树莓派(Raspberry Pi)和Jetson Nano等设备上的表现。相较Gemma 3,新模型功耗更低、内存占用更少,并实现“近零延迟”运行。
谷歌声称,Gemma 4系列在本地硬件上的性能将全面超越前代Gemma 3。其中,Gemma 31B预计在Arena榜单中位列第三,仅次于GLM-5和Kimi 2.5。尽管Gemma 4的最大小型模型仅为前者几分之一,理论上运行成本显着降低。
此次更新标志着谷歌在开源AI领域进一步开放,提升开发者在本地部署和定制化应用中的灵活性。
编辑点评
谷歌推出Gemma 4并切换至Apache 2.0许可,标志着全球AI开源生态的重要进展。此举不仅回应了开发者对许可限制的长期诉求,更通过技术优化强化了本地AI部署的可行性,尤其在移动设备和边缘计算场景中具有广泛潜力。Apache 2.0许可的采用意味着更宽松的商业使用权限,有利于推动AI模型在企业、初创公司和研究机构中的快速扩散。
从国际竞争角度看,谷歌此举可能对以中国为主的AI开源阵营形成压力。GLM-5与Kimi 2.5在Arena榜单中领先,显示中国厂商在大模型能力上的持续突破。谷歌通过Gemma 4强调‘本地化’与‘低延迟’优势,意在抢占边缘计算和移动智能市场,同时规避云服务竞争的高成本与数据主权争议。
长远来看,开源AI模型的标准化与许可开放将加速全球AI技术民主化,降低中小企业的技术门槛。但同时也可能加剧模型同质化与安全监管挑战。各国政府或将在模型开源与国家安全之间寻求平衡,尤其在敏感领域如国防、金融和医疗中,对模型许可与使用范围的审查可能趋严。
此次发布虽未直接涉及政策或地缘冲突,但作为技术领域的关键节点,其对全球AI产业链、开发者生态和未来智能设备形态的影响不可低估。