DeepSeek发布V4大模型:开源、长上下文与国产芯片适配成三大亮点
中国人工智能企业DeepSeek于2026年4月24日发布其新一代旗舰模型V4,该模型支持100万 tokens上下文长度,具备高效记忆机制,且首次全面适配国产AI芯片,如华为Ascend。V4提供V4-Pro和V4-Flash两个版本,均为开源,推理成本显着低于OpenAI、Anthropic等主流闭源模型,其中V4-Flash每百万输入token仅需0.14美元。性能方面,V4-Pro在多个基准测试中追平GPT-5.4、Claude-Opus-4.6等顶尖闭源模型,并超越阿里巴巴Qwen-3.5、Z.ai GLM-5.1等国内开源模型。技术上,V4通过优化注意力机制,大幅降低长上下文...