Google Cloud 宣布,第八代自研 AI 芯片张量处理单元 ( Tensor Processing Unit , TPU ) 将首次拆分为两条产品线。一条是面向模型训练的 TPU 8t 。另一条是面向推理的 TPU 8i 。对 Google 来说,这不只是一次常规迭代,更像是在云端 AI 基础设施上做更细的分工。训练和推理原本就是两种完全不同的负载,把芯片分别优化,目的很直接,就是把算力、能耗和成本压到更有竞争力的位置。
推理指的是模型在上线后的持续使用阶段,也就是用户提交提示词后,模型实际生成结果的过程。 Google 这次给出的指标很激进。和上一代相比,新 TPU 最多可将 AI 模型训练速度提升至 3 倍,单位美元可获得的性能提升 80%,还支持在单一集群中协同运行超过 100 万颗 TPU 。翻成更直白的话,就是同样的钱能买到更多计算,同样的计算可能消耗更少电,客户的总体成本也会继续下降。 Google 之所以一直称其为 TPU 而不是 GPU ,是因为这类低功耗定制芯片最初就是围绕 Tensor 计算思路设计出来的。
不过,这并不意味着 Google 正面向 Nvidia 发起全面替代战。现实情况反而更复杂,也更务实。和 Microsoft 、 Amazon 这些大型云服务商一样, Google 的策略不是用自研芯片彻底取代 Nvidia ,而是把 TPU 作为补充,去覆盖不同类型的 AI 工作负载。 Google 甚至已经明确表示, Nvidia 最新芯片 Vera Rubin 也会在今年晚些时候登陆其云平台。这说明,在可见阶段内, Google 云上的 AI 基础设施仍会维持“自研芯片加 Nvidia”并行的格局。
这背后的逻辑不难理解。超大规模云厂商都在研发自有 AI 芯片, Amazon 、 Microsoft 、 Google 都算在内。长期看,随着更多企业把 AI 业务迁移到云上,并把应用适配到这些云厂商自己的芯片架构, Nvidia 对云厂商的控制力确实可能被逐步削弱。这个趋势存在,而且很清楚。但眼下要据此判断 Nvidia 会被快速边缘化,还是太早了。
芯片行业分析师 Patrick Moorhead 在 X 上还拿这件事自嘲过。 2016 年 Google 推出第一代 TPU 时,他曾判断这可能会给 Nvidia 甚至 Intel 带来坏消息。结果几年过去, Nvidia 的市值已经接近 5 万亿美元,这个判断显然没有经住时间检验。市场给出的答案很直接。 AI 爆发并没有削弱 Nvidia ,反而把它推到了前所未有的位置。
从 Nvidia 的角度看,只要 Google 作为 AI 云服务商继续增长,它依然能从中获利,而不是受损。原因很简单。即便 Google 把相当一部分工作负载放到自家 TPU 上,整个平台对高性能 AI 基础设施的整体需求仍在扩张。云厂商的蛋糕变大, Nvidia 通常也不会缺席。
Google 和 Nvidia 的关系甚至不止于“既竞争又合作”这么简单。 Google 还表示,双方已经达成合作,将共同优化云端计算机网络系统,让基于 Nvidia 芯片的系统在 Google Cloud 上运行得更高效。具体来说,两家公司正在强化名为 Falcon 的软件定义网络技术。 Falcon 由 Google 在 2023 年推出并开源,并通过 Open Compute Project 发布。 Open Compute Project 本身就是数据中心硬件开源体系里最有影响力的组织之一。 Google 现在一边推进自研 TPU ,一边又和 Nvidia 联手打磨网络层效率,这种做法很典型。云计算行业到了今天,比拼的早就不只是单颗芯片,而是芯片、网络、软件栈和集群调度的整体系统能力。


