← 返回

谷歌发布Gemma 4开源AI模型并切换至Apache 2.0许可

谷歌于2026年4月2日宣布推出新一代开源AI模型Gemma 4,包含四种不同规模的版本,旨在优化本地运行性能。该公司同时宣布放弃此前自定义的Gemma许可,全面采用Apache 2.0开源协议,以回应开发者对AI许可限制的长期不满。Gemma 4的两个大型模型(26B混合专家和31B密集型)可在单块80GB的NVIDIA H100 GPU上以bfloat16格式运行,而E2B和E4B小型模型则针对移动设备优化,支持智能手机、树莓派等设备,实现近零延迟。谷歌称Gemma 4在本地硬件上的能力超越前代Gemma 3,其中Gemma 31B预计将在Arena榜单中位列第三,仅次于GLM-5和...

谷歌发布Gemma 4开源AI模型并切换至Apache 2.0许可

谷歌于2026年4月2日宣布推出新一代开源AI模型Gemma 4,包含四种不同规模的版本,旨在优化本地运行性能。该公司同时宣布放弃此前自定义的Gemma许可,全面采用Apache 2.0开源协议,以回应开发者对AI许可限制的长期不满。

Gemma 4的两个大型模型——26B混合专家(Mixture of Experts)和31B密集型(Dense)——设计用于在单块80GB的NVIDIA H100 GPU上以bfloat16格式无量化运行。尽管该GPU价格高达2万美元,但其仍属于本地硬件范畴。若经量化处理,这两款模型亦可适配消费级GPU。

谷歌称,Gemma 4特别注重降低推理延迟。其中,26B混合专家模型仅在推理时激活38亿参数,显着提升每秒处理token数。31B密集型模型更侧重模型质量,预期开发人员将针对特定用途进行微调。

另外两款模型——有效2B(E2B)和有效4B(E4B)——专为移动设备设计,运行时有效参数分别为20亿和40亿。谷歌表示,Pixel团队与高通(Qualcomm)及联发科(MediaTek)合作,优化了这些模型在智能手机、树莓派(Raspberry Pi)和Jetson Nano等设备上的表现。相较Gemma 3,新模型功耗更低、内存占用更少,并实现“近零延迟”运行。

谷歌声称,Gemma 4系列在本地硬件上的性能将全面超越前代Gemma 3。其中,Gemma 31B预计在Arena榜单中位列第三,仅次于GLM-5和Kimi 2.5。尽管Gemma 4的最大小型模型仅为前者几分之一,理论上运行成本显着降低。

此次更新标志着谷歌在开源AI领域进一步开放,提升开发者在本地部署和定制化应用中的灵活性。

编辑点评

谷歌推出Gemma 4并切换至Apache 2.0许可,标志着全球AI开源生态的重要进展。此举不仅回应了开发者对许可限制的长期诉求,更通过技术优化强化了本地AI部署的可行性,尤其在移动设备和边缘计算场景中具有广泛潜力。Apache 2.0许可的采用意味着更宽松的商业使用权限,有利于推动AI模型在企业、初创公司和研究机构中的快速扩散。

从国际竞争角度看,谷歌此举可能对以中国为主的AI开源阵营形成压力。GLM-5与Kimi 2.5在Arena榜单中领先,显示中国厂商在大模型能力上的持续突破。谷歌通过Gemma 4强调‘本地化’与‘低延迟’优势,意在抢占边缘计算和移动智能市场,同时规避云服务竞争的高成本与数据主权争议。

长远来看,开源AI模型的标准化与许可开放将加速全球AI技术民主化,降低中小企业的技术门槛。但同时也可能加剧模型同质化与安全监管挑战。各国政府或将在模型开源与国家安全之间寻求平衡,尤其在敏感领域如国防、金融和医疗中,对模型许可与使用范围的审查可能趋严。

此次发布虽未直接涉及政策或地缘冲突,但作为技术领域的关键节点,其对全球AI产业链、开发者生态和未来智能设备形态的影响不可低估。

相关消息:https://arstechnica.com/ai/2026/04/google-announces-gemma-4-open-ai-models-switches-to-apache-2-0-license/
当日日报:查看 2026年04月03日 当日日报