Gemma 4 发布了什么:这次有多炸

Gemma 4 开源模型发布,310亿参数全球排名第3

你可能听说过 DeepSeek——那个用很少的钱训练出来、把 OpenAI 吓了一跳的中国模型。Gemma 4 做的事情有点类似,但方向不同:

它用 310 亿个参数,在真人盲测排行榜上打到了全球第 3 名。

这有什么了不起?因为排在它前面的那些模型,参数量是它的 10 到 22 倍。换句话说,谷歌用一辆轿车的发动机,跑出了卡车的速度。

更重要的是:它完全开源,任何人都可以免费下载、免费使用、免费拿去做商业产品,没有任何限制。

💡
参数是什么? 你可以把参数理解成 AI 的"脑细胞数量"。一般来说参数越多,模型越聪明,但也越耗电、越贵、越难在普通设备上运行。Gemma 4 的突破在于:用更少的脑细胞,做到了更聪明的事。

Gemma 4 和 Gemini 有什么区别

💬 什么是 Gemma 4?
🙋
小白
Gemma 4 和 Gemini 是什么关系?谷歌不是已经有 Gemini 了吗?
🤖
老Q
Gemini 是谷歌的"旗舰 AI",要收费、要联网、要通过谷歌的服务器才能用。Gemma 4 是用同一套技术研究成果做出来的"开源版本"——你可以把它下载到自己电脑上,断网也能跑,谷歌管不着你怎么用。Gemini 是餐厅,Gemma 是食谱。
🙋
小白
那之前的 Gemma 3 呢?这次升级了什么?
🤖
老Q
两个最大的变化:第一,推理能力暴涨——数学竞赛题的正确率从 20% 跳到了 89%;第二,换成了 Apache 2.0 许可证,这是开源界最宽松的协议,意味着你可以拿它做任何商业产品,谷歌不能反悔。

Gemma 4 四个版本对比:从手机到服务器都能跑

Gemma 4 这次一口气发布了四个版本,覆盖了从手机到工作站的所有场景:

Gemma 4 四个版本对比
版本能在哪跑上下文窗口特点
E2B手机、树莓派128K支持图像+音频输入
E4B轻薄本、Jetson128K性价比最高的小模型
26B MoE普通游戏电脑(8GB显存)256K只激活 3.8B 参数,省电省钱
31B Dense工作站(16GB显存)256K全球排名第 3,最强版本
ℹ️
26B MoE 是什么意思? MoE(混合专家)是一种聪明的架构:模型有 26B 个参数,但每次回答问题时只调用其中 3.8B 个"专家"。就像一家公司有 100 个员工,但每个项目只需要 15 个人上阵——效率高,成本低。

Apache 2.0 开源协议意味着什么

如果你不是开发者,这部分可能听起来很无聊。但它其实是这次发布里最值得关注的事情之一。

之前谷歌的开源模型用的是自己定制的"Gemma 许可证",里面有一些模糊的限制条款,让很多公司的法务部门头疼——"我们能不能拿这个做商业产品?万一谷歌哪天改规则怎么办?"

这次换成 Apache 2.0,相当于谷歌签了一份不可撤销的承诺:你可以拿去做任何事,包括商业产品,我永远不会来找你麻烦。

这对创业公司和独立开发者来说是个大礼包。以前用 Gemma 做产品要先咨询律师,现在不用了。

Gemma 4 能做什么,跟你有什么关系

Gemma 4 本地部署运行场景,数据不出本地保护隐私

说几个最直接的场景:

场景一:你的数据不用上传给任何人

现在很多人用 ChatGPT 或者 Kimi 处理工作文件,但公司文件上传到别人的服务器,总是有点不放心。Gemma 4 可以完全在你自己的电脑上运行,数据不出本地,没有任何隐私风险。

场景二:开发者可以免费造产品

如果你或者你认识的人在做 AI 相关的应用,以前要么付费调用 API,要么用能力较弱的开源模型。现在有了 Gemma 4 31B,全球排名第 3 的能力,零成本,随便用。

场景三:手机上的离线 AI 助手

E2B 和 E4B 版本可以在手机上运行。这意味着未来你的手机 AI 助手不需要联网,不需要订阅,断网也能用,而且没有人能看到你问了什么问题。

怎么免费试用 Gemma 4

如果你想马上体验,最简单的方式是直接去 Google AI Studio(aistudio.google.com),免费,不用下载任何东西,打开浏览器就能用 31B 版本。

如果你是开发者,想在本地跑:

💡
用 Ollama 本地部署 Gemma 4(最简单)
安装 Ollama 之后,一行命令搞定:
ollama pull gemma4:4b(轻量版,普通笔记本可跑)
ollama pull gemma4:31b(旗舰版,需要 16GB 显存)

模型权重在 Hugging Face 上可以直接下载,搜索 google/gemma-4-31B-it 就能找到。

Gemma 4 的短板:中文能力和硬件要求

有,而且要说清楚:

中文能力不是它的强项。Gemma 4 支持 140 多种语言,但中文的优化程度不如 Qwen(通义千问)或 DeepSeek。如果你的主要需求是中文写作、中文问答,国产模型可能更适合你。

最强版本对硬件有要求。31B 版本需要至少 16GB 显存,普通笔记本跑不动。但 E4B 版本在大多数电脑上都能跑,能力也不差。

它不是 Gemini。Gemma 4 是开源版本,没有谷歌搜索集成,没有实时联网,没有 Google Workspace 的深度整合。如果你需要这些,还是得用 Gemini。

⚠️
一个值得关注的趋势 Gemma 4 的发布,加上之前的 DeepSeek、Llama 4、Qwen 3.5,开源模型的能力正在快速追上闭源模型。这对普通用户是好事——未来你用的 AI 工具,背后的模型可能越来越多是免费的开源版本,而不是你每月付费订阅的那个。

🔗 延伸阅读