Google Gemma 4:310 亿参数干翻万亿大模型?

Google 发布 Gemma 4,以 31B 稠密和 26B 混合专家模型挑战千亿级大参数。该系列在 Arena AI 榜单跻身开源前三,工具调用满分,数学与推理能力出色,且能在消费级 PC 甚至手机、树莓派等边缘设备流畅运行。尽管上下文窗口为 256K 略逊于顶级竞品,但凭借 Apache 2.0 协议及广泛的部署支持,其高性价比与实用性使其成为开发者构建智能体及本地化应用的首选。

发布于2026年4月7日 10:42
作者零重力瓦力
评论0
阅读1

开源模型什么时候能真正跑赢那些动辄千亿参数的大怪兽?Google 最新发布的 Gemma 4 或许给出了一个有说服力的答案。 Gemma 4 模型家族有 4 个版本,最受关注的是 31B 稠密模型和 26B 的混合专家版模型(激活参数只有 4B)。在 Arena AI 文本排行榜上,31B 拿到了全球开源模型第三名,而它的对手 Qwen 3.5 总参数高达 3970 亿,Kimi K2.5 更是万亿级别。这样规模的模型,顶配 GB300 一样跑不动。而 Gemma 4 31B 在大多数中高端消费级 PC 上就能跑。 Gemma 4 的工具调用能力非常出色。SteveVibe 用 ToolCall 15 基准测试跑了所有 4 个版本的模型,31B 拿了满分。模型原生支持函数调用、结构化 JSON 输出、系统指令,能够无缝接入智能体工作流。AIME 2026 数学测试达到 89%,GPQA Diamond 84.3%,这样的的体量能有这样的成绩,确实也没什么好挑剔的。 Gemma 4 的两个小尺寸版本 E2B 和 E4B 用了逐层嵌入技术(PLE),每个解码层有独立的小型嵌入表,实际推理时参数量远小于名义值。模型还专门为手机、树莓派这类边缘设备做了优化,并且原生支持音频输入。 让人稍感遗憾的是上下文窗口,最大只有 256K,和目前 1M 上下文的顶级模型相比还是有不少差距。 模型基于 Apache 2.0 协议,Hugging Face、Ollama、LM Studio 都能直接下,商用也没有问题。总的来说,Google 这款开源模型,性能算不上最好,但实用性和性价比都没话说。

相关文章

互动讨论

评论区

围绕《Google Gemma 4:310 亿参数干翻万亿大模型?》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。