4月3日凌晨,谷歌DeepMind无预警发布Gemma 4系列开源大模型,瞬间引爆全球AI圈。一口气推出4款全尺寸模型,从适配手机的2B到性能炸裂的31B,实现从端侧到云端全覆盖。

性能暴涨有多夸张?

对比上一代Gemma 3 27B,Gemma 4 31B实现全维度代际提升:

  • 数学推理:AIME 2026从20.8%暴涨至89.2%,涨幅超4倍
  • 编程能力:Codeforces评分从110飙升至2150,LiveCodeBench从29.1%提升至80%
  • 综合推理:GPQA Diamond从42.4%翻倍至84.3%
  • 智能体能力:t2-bench从6.6%跃升至86.4%

最关键的是,31B模型单张H100就能跑,彻底打破AI算力垄断。

四个版本怎么选?

2B端侧版:内存占用约5GB,手机/老电脑可用,适合日常对话

4B端侧版:内存占用约10GB,长文档处理、图片识别无压力

26B MoE版:内存占用约18GB,激活参数仅3.8B,性价比之王

31B旗舰版:内存占用约20GB,256K超长上下文,性能天花板

本地部署只需3步

第一步:安装Ollama,访问 ollama.com/download 下载对应系统安装包

第二步:根据你的内存选择模型,在终端输入命令:

  • 8GB内存:ollama run gemma4:e2b
  • 16GB内存:ollama run gemma4:e4b
  • 24GB+内存:ollama run gemma4:26b-moe
  • 32GB+内存:ollama run gemma4:31b

第三步:等待下载完成,出现>>>提示符就成功了

手机端用户:Android需12+系统/8GB内存,iOS需16+系统/iPhone 13以上

为什么这次是大事?

这次谷歌用的是Apache 2.0协议,意味着:

  • 完全免费商用,不用担心被告
  • 可以随便魔改,适配各种场景
  • Gemini 3同源技术,性能有保障

谷歌这波操作,直接把开源圈的天花板拉高了。个人开发者、中小企业无需超算,就能部署顶级AI应用。

想体验的伙伴赶紧动手吧!