谷歌发布全新Gemma 3小模型系列


Google Deepmind 推出了一个叫 Gemma 3 的新一代开放式 AI 模型。这个模型的特点是占用空间小但性能高,所以它可以在单个 GPU 或 TPU 上运行。

Google Deepmind 说,虽然这些模型体积小,但在初步测试中,它们的表现比Llama-405BDeepSeek-V3 这些更大的模型还要好。(在竞技场中击败 Deepseek v3,同时使用 1 个 GPU 而不是 32 个)

Gemma 3 有四种尺寸——1B、4B、12B 和 27B。1B 是纯文本模型,而其他三种是能处理图像的多模式视觉模型。

Gemma 3 还支持视觉语言输入和文本输出,能处理多达 128k 个标记的上下文窗口,理解 140 多种语言,并且在数学、推理和聊天功能上有所改进,比如能输出结构化数据和调用函数。

这些模型能处理 140 多种语言,其中 35 种不需要额外训练。它们可以处理文本、图像(除了 1B 版本)和短视频。谷歌说,它们的函数调用和结构化输出功能让它们特别适合做代理任务。

他们还大胆宣称:Gemma3-27B-IT 在基准测试中表现和 Gemini-1.5-Pro 差不多。

所有模型都经过了精炼训练,然后用各种强化学习方法进行了专门的后期训练。这些技术专门改进了数学、聊天功能、指令遵循和多语言交流。

谷歌还首次推出了量化版本,在保持准确性的同时降低了内存和计算需求。他们说,Gemma 3 会比以前的版本更少复制逐字文本,并且避免复制个人数据。

聊天机器人领域的人类评估者给 Gemma 3-27B-IT 的 Elo 分数是 1338,把它列为前 10 名的 AI 模型之一。较小的 4B 模型表现也非常好,能力接近较大的 Gemma 2-27B-IT。27B 版本在很多基准测试中表现和 Gemini 1.5-Pro 差不多。

网友评测:
我已经亲自测试过 Gemma3,它绝对一流。
将 Gemma3:12b 与 deepseek-r1:14b 进行比较:

  • Gemma3 使用 5.5G 的 VRAM,而 Deepseek 使用 9.5G。
  • 速度相似 - Gemma3 稍快一些。我看到 Gemma3 每秒产生 8 个 token,而 Deepseek 每秒产生 6.9 个 token。