← 返回

印度AI实验室Sarvam发布新一代大模型,押注开源AI竞争力

印度AI实验室Sarvam于2月18日推出300亿和1050亿参数大模型,通过混合专家架构降低计算成本,旨在挑战美国及中国科技巨头的AI布局。新模型训练数据覆盖多语言,获印度政府AI专项支持。

印度AI实验室Sarvam发布新一代大模型

印度本土AI实验室Sarvam于2月18日宣布推出新一代大语言模型,包含300亿和1050亿参数版本,并配套推出文本转语音、语音转文本及文档解析视觉模型。该发布会在新德里举行的印度AI影响力峰会上进行,标志着该实验室在减少对外国AI平台依赖方面的重要进展。

技术参数与架构创新


Sarvam表示,300亿亿参数模型采用混合专家架构,仅激活部分参数即可显著降低计算成本。30B版本支持32000-token上下文窗口,适用于实时对话场景;105B版本扩展至128000-token窗口,可应对复杂推理任务。相较2024年10月发布的20亿参数Sarvam 1模型,算力提升达50倍。

本土化战略与政府支持


据披露,105B模型训练数据涵盖多语种印度语料,30B模型则基于约16万亿token文本从零训练。实验室获得印度政府主导的IndiaAI使命计划算力支持,并与数据中心运营商Yotta及Nvidia建立技术合作。Sarvam联合创始人普拉蒂尤什·库马尔强调,将采取审慎扩展策略,优先开发本地化应用场景。

开源计划与产业布局


公司计划开放30B和105B模型的开源授权,但未明确训练数据及代码的开放范围。同时公布行业定制方案Sarvam for Work、编程专用模型及对话AI平台Samvaad的开发规划。成立于2023年的Sarvam已获Lightspeed Venture Partners等机构超5000万美元融资。

编辑点评

印度AI实验室Sarvam的模型升级折射出全球AI开源运动的新态势。通过混合专家架构和本土多语言训练数据,该实验室试图在成本控制与性能优化间寻找平衡点,这对资源有限的发展中国家具有重要示范价值。其获得政府专项支持则凸显印度推动科技自主的战略意图,可能加剧中美印三边AI技术竞争格局。

从技术角度看,105B级模型的开源将为全球开发者提供新选择,尤其在印度语系国家形成替代方案。但需警惕模型训练数据的地域局限性可能带来的偏见问题。经济层面,印度寻求通过本土AI产业降低对欧美技术授权的依赖,这或将影响全球AI供应链重塑。

事件的深层意义在于验证了开源AI在商业可行性上的突破可能。若Sarvam模式成功,将为中小国家参与AI竞赛提供可复制路径,同时也可能倒逼OpenAI、阿里云等企业调整开源策略。值得关注的是印度AI政策如何在创新激励与数据安全间建立新平衡。

相关消息:https://techcrunch.com/2026/02/18/indian-ai-lab-sarvams-new-models-are-a-major-bet-on-the-viability-of-open-source-ai/