4月3日凌晨,谷歌DeepMind无预警发布Gemma 4系列开源大模型,瞬间引爆全球AI圈。一口气推出4款全尺寸模型,从适配手机的2B到性能炸裂的31B,实现从端侧到云端全覆盖。
性能暴涨有多夸张?
对比上一代Gemma 3 27B,Gemma 4 31B实现全维度代际提升:
- 数学推理:AIME 2026从20.8%暴涨至89.2%,涨幅超4倍
- 编程能力:Codeforces评分从110飙升至2150,LiveCodeBench从29.1%提升至80%
- 综合推理:GPQA Diamond从42.4%翻倍至84.3%
- 智能体能力:t2-bench从6.6%跃升至86.4%
最关键的是,31B模型单张H100就能跑,彻底打破AI算力垄断。
四个版本怎么选?
2B端侧版:内存占用约5GB,手机/老电脑可用,适合日常对话
4B端侧版:内存占用约10GB,长文档处理、图片识别无压力
26B MoE版:内存占用约18GB,激活参数仅3.8B,性价比之王
31B旗舰版:内存占用约20GB,256K超长上下文,性能天花板
本地部署只需3步
第一步:安装Ollama,访问 ollama.com/download 下载对应系统安装包
第二步:根据你的内存选择模型,在终端输入命令:
- 8GB内存:ollama run gemma4:e2b
- 16GB内存:ollama run gemma4:e4b
- 24GB+内存:ollama run gemma4:26b-moe
- 32GB+内存:ollama run gemma4:31b
第三步:等待下载完成,出现>>>提示符就成功了
手机端用户:Android需12+系统/8GB内存,iOS需16+系统/iPhone 13以上
为什么这次是大事?
这次谷歌用的是Apache 2.0协议,意味着:
- 完全免费商用,不用担心被告
- 可以随便魔改,适配各种场景
- 与Gemini 3同源技术,性能有保障
谷歌这波操作,直接把开源圈的天花板拉高了。个人开发者、中小企业无需超算,就能部署顶级AI应用。
想体验的伙伴赶紧动手吧!