Gemma 4 发布了什么:这次有多炸
你可能听说过 DeepSeek——那个用很少的钱训练出来、把 OpenAI 吓了一跳的中国模型。Gemma 4 做的事情有点类似,但方向不同:
它用 310 亿个参数,在真人盲测排行榜上打到了全球第 3 名。
这有什么了不起?因为排在它前面的那些模型,参数量是它的 10 到 22 倍。换句话说,谷歌用一辆轿车的发动机,跑出了卡车的速度。
更重要的是:它完全开源,任何人都可以免费下载、免费使用、免费拿去做商业产品,没有任何限制。
Gemma 4 和 Gemini 有什么区别
Gemma 4 四个版本对比:从手机到服务器都能跑
Gemma 4 这次一口气发布了四个版本,覆盖了从手机到工作站的所有场景:
| 版本 | 能在哪跑 | 上下文窗口 | 特点 |
|---|---|---|---|
| E2B | 手机、树莓派 | 128K | 支持图像+音频输入 |
| E4B | 轻薄本、Jetson | 128K | 性价比最高的小模型 |
| 26B MoE | 普通游戏电脑(8GB显存) | 256K | 只激活 3.8B 参数,省电省钱 |
| 31B Dense | 工作站(16GB显存) | 256K | 全球排名第 3,最强版本 |
Apache 2.0 开源协议意味着什么
如果你不是开发者,这部分可能听起来很无聊。但它其实是这次发布里最值得关注的事情之一。
之前谷歌的开源模型用的是自己定制的"Gemma 许可证",里面有一些模糊的限制条款,让很多公司的法务部门头疼——"我们能不能拿这个做商业产品?万一谷歌哪天改规则怎么办?"
这次换成 Apache 2.0,相当于谷歌签了一份不可撤销的承诺:你可以拿去做任何事,包括商业产品,我永远不会来找你麻烦。
这对创业公司和独立开发者来说是个大礼包。以前用 Gemma 做产品要先咨询律师,现在不用了。
Gemma 4 能做什么,跟你有什么关系
说几个最直接的场景:
场景一:你的数据不用上传给任何人
现在很多人用 ChatGPT 或者 Kimi 处理工作文件,但公司文件上传到别人的服务器,总是有点不放心。Gemma 4 可以完全在你自己的电脑上运行,数据不出本地,没有任何隐私风险。
场景二:开发者可以免费造产品
如果你或者你认识的人在做 AI 相关的应用,以前要么付费调用 API,要么用能力较弱的开源模型。现在有了 Gemma 4 31B,全球排名第 3 的能力,零成本,随便用。
场景三:手机上的离线 AI 助手
E2B 和 E4B 版本可以在手机上运行。这意味着未来你的手机 AI 助手不需要联网,不需要订阅,断网也能用,而且没有人能看到你问了什么问题。
怎么免费试用 Gemma 4
如果你想马上体验,最简单的方式是直接去 Google AI Studio(aistudio.google.com),免费,不用下载任何东西,打开浏览器就能用 31B 版本。
如果你是开发者,想在本地跑:
安装 Ollama 之后,一行命令搞定:
ollama pull gemma4:4b(轻量版,普通笔记本可跑)ollama pull gemma4:31b(旗舰版,需要 16GB 显存)
模型权重在 Hugging Face 上可以直接下载,搜索 google/gemma-4-31B-it 就能找到。
Gemma 4 的短板:中文能力和硬件要求
有,而且要说清楚:
中文能力不是它的强项。Gemma 4 支持 140 多种语言,但中文的优化程度不如 Qwen(通义千问)或 DeepSeek。如果你的主要需求是中文写作、中文问答,国产模型可能更适合你。
最强版本对硬件有要求。31B 版本需要至少 16GB 显存,普通笔记本跑不动。但 E4B 版本在大多数电脑上都能跑,能力也不差。
它不是 Gemini。Gemma 4 是开源版本,没有谷歌搜索集成,没有实时联网,没有 Google Workspace 的深度整合。如果你需要这些,还是得用 Gemini。