DeepSeek V4 悄悄来了。1.6 万亿总参数,490 亿活跃参数,混合专家架构,100 万 Token 上下文,完全开源,在基准测试上也只是比 GPT 5.5 和 Opus 4.7 落后了一点。而 AI 技术博主 Matthew Berman 认为,就是这 “一点点” 的差距,才是整个故事最有意思的地方。
对大多数企业来说,“几乎一样好” 就已经够用了。GPT 5.5 每百万输出 Token 要 30 美元,DeepSeek 只是零头,还开源可微调,可私有化部署。你要是一个要控制 AI 成本的 CEO,这道算术题不难做。
出口管制这张牌也在失效。芯片限制了算力,但限不住算法创新。DeepSeek 用更少的资源做出前沿水平的模型,已经证明了这一点。黄仁勋说应该让中国的 AI 建立在美国芯片上,但现在的问题反过来了。美国的企业正在考虑将业务建立在中国模型上。
而 Matthew Berman 给美国支的招是,要么加码开源,要么逼着 OpenAI 和 Anthropic 大幅降低成本。
