DeepSeek发布V4大模型:开源、长上下文与国产芯片适配成三大亮点
2026年4月24日,中国人工智能企业DeepSeek正式发布其新一代旗舰模型V4的预览版本。该模型在上下文长度、推理效率和国产芯片适配方面实现重大突破,被视为中国AI产业迈向自主可控的重要进展。
V4支持高达100万tokens的上下文窗口,足以容纳《魔戒》三部曲与《霍比特人》的全部文本。其核心创新在于优化注意力机制,通过压缩历史信息、聚焦关键内容,大幅降低长上下文处理成本。在100万tokens场景下,V4-Pro仅消耗前代V3.2模型27%的算力和10%的内存,V4-Flash则分别降至10%和7%。
该模型提供两个版本:V4-Pro面向复杂编码与智能体任务,V4-Flash注重速度与成本。两者均提供推理接口,V4-Pro每百万输入token收费1.74美元,输出3.48美元;V4-Flash分别为0.14美元和0.28美元,成为目前最便宜的顶级AI模型之一。在基准测试中,V4-Pro性能与OpenAI GPT-5.4、Anthropic Claude-Opus-4.6、Google Gemini-3.1相当,且在编码、数学和STEM领域全面超越阿里巴巴Qwen-3.5、Z.ai GLM-5.1等国内模型。
DeepSeek称V4已适配国产AI芯片,特别是华为Ascend 950系列,支持推理部署。据称,模型训练部分仍依赖Nvidia芯片,但推理环节已实现国产化。华为官方宣布其Ascend超节点产品支持V4。DeepSeek预计,随着Ascend 950大规模量产,V4-Pro价格将进一步下降。
这是继2025年1月R1模型后,DeepSeek最重要的发布。R1曾以低成本高效率震惊全球AI界,推动中国AI开源浪潮。此次V4的发布,不仅延续了开源路线,更在技术架构和产业生态层面实现升级,标志着中国AI在应对美国芯片限制背景下,正构建独立的AI基础设施。
背景与挑战
DeepSeek在V4发布前经历了多轮人员变动和项目延期,同时面临中美政府监管压力。尽管未向Nvidia、AMD等提供预发布访问权限,但公司并未完全摆脱对Nvidia的依赖,部分训练仍依赖其芯片。清华大学计算机系教授刘志远指出,国产芯片在训练性能上仍落后,但更适合推理任务。
中国政府近年来推动数据中心和公共计算项目使用国产芯片,包括限制进口、设定采购配额、要求Nvidia芯片与国产芯片搭配使用等措施。DeepSeek的V4成为这一政策背景下首个实现大规模国产芯片适配的前沿模型,具有示范效应。
编辑点评
DeepSeek V4的发布不仅是技术迭代,更是中国AI产业在地缘政治压力下的战略回应。其三大突破——开源架构、长上下文效率、国产芯片适配——共同构成中国构建平行AI生态的关键步骤。在全球AI竞争白热化背景下,V4的低成本优势将极大赋能中小开发者和企业,尤其在编码、智能体和科研场景中展现潜力。技术上,其注意力机制优化解决了长上下文处理的算力瓶颈,为后续模型扩展提供范式。更重要的是,对华为Ascend芯片的适配,标志着中国正从‘可用’迈向‘可用且可扩展’的自主AI基础设施建设阶段。然而,国产芯片在训练性能上的差距仍存,V4训练环节仍部分依赖Nvidia,反映中国AI产业链尚未完全自洽。若华为Ascend 950如期量产,V4成本有望进一步下降,可能引发全球AI模型定价体系重构。长期看,V4的成功或推动更多中国AI公司加速国产化转型,进而重塑全球AI产业格局。