谷歌推出Gemma 4,作为其最先进的用于推理和代理任务的开源AI模型

谷歌已经推出 Gemma 4,这是其最新的开放式人工智能模型家族,专注于高级推理以及类似代理的工作流。

摘要

  • 谷歌推出 Gemma 4,这是其最新的开放式 AI 模型家族,专注于高级推理与类似代理的工作流。
  • 该模型提供四种规模,从面向边缘设备的版本到高性能系统,并支持 140 多种语言。
  • Gemma 4 引入了诸如多步骤推理、代理工具以及离线代码生成等功能,模型可通过 AI Studio 和 Edge Gallery 访问。

在 4 月 2 日于 X 的一篇帖子中,谷歌 DeepMind 首席执行官 Demis Hassabis 宣布推出 Gemma 4,这是其最新的开放式人工智能模型家族,专注于高级推理与 agentic 工作流。

开放模型旨在由开发者进行修改与适配,使他们能够为特定用例定制系统。

此次发布之际,Gemma 生态的采用势头强劲。根据谷歌的说法,自首个版本上线以来,开发者已记录超过 4 亿次下载,并创建了超过 100,000 个变体。

四层级模型家族面向多样化硬件与用例

Hassabis 表示,Gemma 4 提供四种规模,每一种都适用于不同的工作负载与硬件配置,并且可以针对专门任务进行微调。

最大的版本 31B 是一个稠密模型,面向“卓越的原始性能”,优先考虑准确性与输出深度,尽管它需要高端计算资源。

与之并行的是 26B 的专家混合(Mixture of Experts,MoE)模型,它旨在降低延迟。推理期间它会激活更少的参数,从而实现更快的响应与更高的效率,尽管在输出质量上存在一些权衡。

对于较轻量的用例,谷歌推出了 2B 和 4B 模型。这些模型针对面向边缘的设备(如智能手机和紧凑型系统)进行了优化,使得在端侧执行成为可能,同时降低了计算需求。

你可以用 Google Gemma 4 做什么?

Gemma 4 引入了改进的推理能力,使其能够处理需要多步骤逻辑与结构化问题解决的任务。它在与数学以及指令遵循相关的基准测试中也表现出更强的性能。

这些模型通过原生函数调用、结构化 JSON 输出以及系统级指令来支持类似代理的工作流。借助这些特性,开发者可以构建能够与 API、工具和外部服务进行交互的自主系统。Gemma 4 还支持高质量的离线代码生成,让本地机器成为 AI 编程助手。

另一个关键特性是其扩展的上下文窗口。边缘模型最高支持 128K tokens,而更大的变体将这一上限扩展到 256K tokens,从而允许在单个提示中处理长文档或代码库。模型在超过 140 种语言上进行训练,这使得其能够实现全球部署。

Sundar Pichai 转发了该公告,并表示 Gemma 4 是“在每个参数中打包了令人难以置信的智能量”。

这些模型旨在覆盖广泛的硬件运行范围,从智能手机和笔记本到 GPU 与开发者工作站;更小的变体能够在本地运行,无需持续的互联网访问。

开发者可以从多个平台开始测试 Gemma 4。对于更高性能的用例,31B 和 26B MoE 模型可在 Google AI Studio 上使用;而更小的 E2B 和 E4B 变体则可通过 Google AI Edge Gallery 访问,面向端侧与轻量级应用。

披露:本文不构成投资建议。本文页面中展示的内容与材料仅用于教育目的。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论