Gemini API 成本与可靠性的平衡新法

Google 为 Gemini API 推出 Flex 与 Priority 两款新服务层级。 Flex 定位成本优化型,价格降低 50%,采用同步接口,适合后台任务及模型“思考”过程等延迟容忍型工作负载。 Priority 提供最高可靠性保障,适用于实时客服、直播审核等关键应用,超出上限自动降级而非失败。两层级填补了同步服务与异步批处理间的空白,让开发者能根据任务特性灵活路由工作负载,无需构建复杂混合架构。

发布于2026年4月11日 14:01
编辑小创
评论0
阅读2

Google 正式为 Gemini API 推出两款全新服务层级:Flex 与 Priority ,为开发者提供了在单一统一接口下精细控制成本与可靠性的能力。这一更新旨在帮助开发者更高效地管理 AI 工作负载,同时简化架构复杂度。

随着 AI 从简单对话场景向复杂自主智能体演进,开发者通常需要同时处理两类截然不同的逻辑:后台任务与交互式任务。前者涵盖数据丰富化或模型“思考”过程等高吞吐量工作流,无需即时响应;后者则是面向用户的聊天机器人、副驾驶等功能,对可靠性有较高要求。在此之前,支持这两类任务意味着要在标准同步服务和异步 Batch API 之间拆分架构。

Flex Inference :以更低成本驱动规模化创新

Flex Inference 是 Google 新推出的成本优化层级,专为延迟容忍型工作负载设计,无需承担批处理的额外开销。使用者只需在请求中配置 service_tier 参数,即可享受以下优势:

相比 Standard API 降低 50% 的价格:通过降低请求的关键性级别(以牺牲一定可靠性并增加延迟为代价)换取显著成本节省。不同于 Batch API 的异步特性, Flex 采用同步接口,开发者可以使用相同的熟悉端点,无需管理输入/输出文件或轮询任务完成状态。这一特性使其特别适合后台 CRM 更新、大规模研究模拟以及智能体工作流中模型在后台“浏览”或“思考”的场景。

Flex tier 将面向所有付费层级开放,支持 GenerateContent 和 Interactions API 请求。

Priority Inference :为关键应用提供最高可靠性保障

Priority Inference 则定位于最高可靠性层级,以溢价换取更强的服务保障。这一层级的请求将获得最高关键性级别,即使在平台负载高峰期间也能确保稳定响应。当流量超出 Priority 上限时,超出部分的请求将自动降级至 Standard 层级,而非直接失败,从而保障应用持续在线并维持业务连续性。 API 响应中会明确指示由哪个层级服务了该请求,为开发者的性能监控和账单核算提供完全透明的可见性。

这一层级适用于实时客服机器人、直播内容审核管线以及时间敏感型请求等场景。目前 Priority Inference 仅向 Tier 2 / Tier 3 付费项目的用户开放,同样支持 GenerateContent 和 Interactions API 端点。

Flex 与 Priority 的推出填补了同步服务与异步批处理之间的空白,使开发者能够根据任务特性灵活路由工作负载,无需构建复杂的混合架构。

相关文章

互动讨论

评论区

围绕《Gemini API 成本与可靠性的平衡新法》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。