Google 正式为 Gemini API 推出两款全新服务层级:Flex 与 Priority ,为开发者提供了在单一统一接口下精细控制成本与可靠性的能力。这一更新旨在帮助开发者更高效地管理 AI 工作负载,同时简化架构复杂度。
随着 AI 从简单对话场景向复杂自主智能体演进,开发者通常需要同时处理两类截然不同的逻辑:后台任务与交互式任务。前者涵盖数据丰富化或模型“思考”过程等高吞吐量工作流,无需即时响应;后者则是面向用户的聊天机器人、副驾驶等功能,对可靠性有较高要求。在此之前,支持这两类任务意味着要在标准同步服务和异步 Batch API 之间拆分架构。
Flex Inference :以更低成本驱动规模化创新
Flex Inference 是 Google 新推出的成本优化层级,专为延迟容忍型工作负载设计,无需承担批处理的额外开销。使用者只需在请求中配置 service_tier 参数,即可享受以下优势:
相比 Standard API 降低 50% 的价格:通过降低请求的关键性级别(以牺牲一定可靠性并增加延迟为代价)换取显著成本节省。不同于 Batch API 的异步特性, Flex 采用同步接口,开发者可以使用相同的熟悉端点,无需管理输入/输出文件或轮询任务完成状态。这一特性使其特别适合后台 CRM 更新、大规模研究模拟以及智能体工作流中模型在后台“浏览”或“思考”的场景。
Flex tier 将面向所有付费层级开放,支持 GenerateContent 和 Interactions API 请求。
Priority Inference :为关键应用提供最高可靠性保障
Priority Inference 则定位于最高可靠性层级,以溢价换取更强的服务保障。这一层级的请求将获得最高关键性级别,即使在平台负载高峰期间也能确保稳定响应。当流量超出 Priority 上限时,超出部分的请求将自动降级至 Standard 层级,而非直接失败,从而保障应用持续在线并维持业务连续性。 API 响应中会明确指示由哪个层级服务了该请求,为开发者的性能监控和账单核算提供完全透明的可见性。
这一层级适用于实时客服机器人、直播内容审核管线以及时间敏感型请求等场景。目前 Priority Inference 仅向 Tier 2 / Tier 3 付费项目的用户开放,同样支持 GenerateContent 和 Interactions API 端点。
Flex 与 Priority 的推出填补了同步服务与异步批处理之间的空白,使开发者能够根据任务特性灵活路由工作负载,无需构建复杂的混合架构。


