DeepSeek发布新一代AI模型V4,称已“缩小与前沿模型差距”
中国人工智能实验室DeepSeek于2026年4月24日发布其最新大语言模型DeepSeek V4的两个预览版本——V4 Flash和V4 Pro,这是继去年V3.2模型及R1推理模型之后的重磅更新。
两款模型均采用混合专家(mixture-of-experts)架构,支持100万token上下文窗口,适用于处理大型代码库或文档。其中,V4 Pro总参数量达1.6万亿,激活参数490亿,为当前公开权重模型中参数量最大,超越Moonshot AI的Kimi K 2.6(1.1万亿)、MiniMax的M1(4560亿),并超过DeepSeek V3.2(6710亿)两倍以上。V4 Flash参数量为2840亿,激活参数130亿。
DeepSeek表示,新模型得益于架构优化,在效率和性能上优于V3.2,且在推理基准测试中“几乎缩小了与当前领先模型(包括开源和闭源)的差距”。其V4-Pro-Max模型在推理任务中表现优于开源同行,并在部分任务中超越OpenAI GPT-5.2和Gemini 3.0 Pro。代码竞赛基准测试中,两款V4模型性能与GPT-5.4相当。
然而,在知识测试方面,V4模型仍略逊于OpenAI GPT-5.4和Google Gemini 3.1 Pro,DeepSeek指出其发展轨迹“落后前沿模型约3至6个月”。两款模型目前仅支持文本输入输出,未提供音频、视频或图像处理能力。
在成本方面,DeepSeek V4显着低于现有前沿模型。V4 Flash输入费用为0.14美元/百万token,输出为0.28美元/百万token,低于GPT-5.4 Nano、Gemini 3.1 Flash、GPT-5.4 Mini和Claude Haiku 4.5。V4 Pro输入费用为0.145美元/百万token,输出费用为3.48美元/百万token,低于Gemini 3.1 Pro、GPT-5.5、Claude Opus 4.7和GPT-5.4。
此次发布恰逢美国指控中国以数千个代理账户大规模窃取美国AI实验室知识产权。DeepSeek此前亦被Anthropic和OpenAI指控进行“蒸馏”(distillation),即通过间接方式复制其模型。
技术背景与市场影响
DeepSeek V4的推出标志着中国在大模型领域持续追赶全球前沿。其混合专家架构和超大参数量提升推理能力,同时通过优化降低推理成本,试图在性能与经济性之间取得平衡。尽管在知识广度上仍存差距,但其在代码和推理任务中的表现已逼近领先水平,对全球开源AI生态构成重要挑战。
编辑点评
DeepSeek V4的发布标志着中国AI技术在大模型领域实现重要突破,其参数规模和推理性能已接近全球最前沿水平,尤其在成本控制方面形成显着优势。这一进展反映了中国在AI基础设施、算法优化和算力调度上的系统性提升,也加剧了中美在AI技术主导权上的竞争。尽管美国近期指控中国大规模窃取AI知识产权,但DeepSeek等中国企业的技术进步更多源于自主研发投入和工程化能力,而非单一外部来源。未来,随着开源模型性能逼近闭源模型,全球AI生态可能面临重构:开源社区影响力扩大,企业对闭源模型的依赖度下降。同时,高性价比AI模型可能加速全球AI应用普及,尤其在中小企业和新兴市场,推动新一轮技术民主化。但需警惕技术差距的动态性,当前3至6个月的落后是否可持续,取决于后续迭代速度和数据积累能力。