DeepSeek 发布 V4 系列模型( Flash 与 Pro ) 。两个模型都采用混合专家( Mixture-of-Experts )架构,上下文窗口统一拉到 100 万 Token 。这意味着开发者可以把整个代码仓库或者成堆文档一次性塞进提示词里,因为混合专家路线会让每次推理只激活一部分参数,运营成本天然更低。
体量最大的无疑是 Pro 。总参数 1.6 万亿,活跃参数 490 亿,一口气把开源模型的规模天花板推过 1.5 万亿,压过 Kimi K 2.6 ( 1.1 万亿)和 MiniMax 的 M1 ( 4560 亿),相当于自家前代 V3.2 ( 6710 亿)的两倍多。更轻量的 Flash 总参数 2840 亿,活跃参数维持在 130 亿。
性能层面, DeepSeek 表示:得益于架构改进,两者都比 V3.2 更高效,在推理基准上“几乎抹平”了与当前顶尖开源和闭源模型的差距。尤其是在代码竞赛类基准里,两款 V4 的表现被描述为“可与 GPT-5.4 一战”。 Pro 的 Max 变体甚至在部分推理任务中跑赢了 OpenAI 的 GPT-5.2 和 Gemini 3.0 Pro 。
但短板也明摆着。知识类测试是 V4 系列露怯的地方,输给了 GPT-5.4 和 Google 最新的 Gemini 3.1 Pro 。实验室自己估算,这条能力曲线大概比最前沿的模型慢上三到六个月。而且现阶段两个预览版都只接受文本输入,不像大多数闭源竞品那样能理解或生成音频、视频和图像。
V4 最核心的优势是定价。 V4 Flash 每百万输入 Token 仅收取 0.14 美元,输出 0.28 美元,直接打穿 GPT-5.4 Nano 、 Gemini 3.1 Flash 、 GPT-5.4 Mini 和 Claude Haiku 4.5 的价格线。 V4 Pro 输入更是压到 0.145 美元,输出 3.48 美元,把 Gemini 3.1 Pro 、 GPT-5.5 、 Claude Opus 4.7 乃至 GPT-5.4 都甩在身后。


