✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
谷歌推出Gemma 4,作为其最先进的用于推理和代理任务的开源AI模型
谷歌已经推出 Gemma 4,这是其最新的开放式人工智能模型家族,专注于高级推理以及类似代理的工作流。
摘要
在 4 月 2 日于 X 的一篇帖子中,谷歌 DeepMind 首席执行官 Demis Hassabis 宣布推出 Gemma 4,这是其最新的开放式人工智能模型家族,专注于高级推理与 agentic 工作流。
开放模型旨在由开发者进行修改与适配,使他们能够为特定用例定制系统。
此次发布之际,Gemma 生态的采用势头强劲。根据谷歌的说法,自首个版本上线以来,开发者已记录超过 4 亿次下载,并创建了超过 100,000 个变体。
四层级模型家族面向多样化硬件与用例
Hassabis 表示,Gemma 4 提供四种规模,每一种都适用于不同的工作负载与硬件配置,并且可以针对专门任务进行微调。
最大的版本 31B 是一个稠密模型,面向“卓越的原始性能”,优先考虑准确性与输出深度,尽管它需要高端计算资源。
与之并行的是 26B 的专家混合(Mixture of Experts,MoE)模型,它旨在降低延迟。推理期间它会激活更少的参数,从而实现更快的响应与更高的效率,尽管在输出质量上存在一些权衡。
对于较轻量的用例,谷歌推出了 2B 和 4B 模型。这些模型针对面向边缘的设备(如智能手机和紧凑型系统)进行了优化,使得在端侧执行成为可能,同时降低了计算需求。
你可以用 Google Gemma 4 做什么?
Gemma 4 引入了改进的推理能力,使其能够处理需要多步骤逻辑与结构化问题解决的任务。它在与数学以及指令遵循相关的基准测试中也表现出更强的性能。
这些模型通过原生函数调用、结构化 JSON 输出以及系统级指令来支持类似代理的工作流。借助这些特性,开发者可以构建能够与 API、工具和外部服务进行交互的自主系统。Gemma 4 还支持高质量的离线代码生成,让本地机器成为 AI 编程助手。
另一个关键特性是其扩展的上下文窗口。边缘模型最高支持 128K tokens,而更大的变体将这一上限扩展到 256K tokens,从而允许在单个提示中处理长文档或代码库。模型在超过 140 种语言上进行训练,这使得其能够实现全球部署。
Sundar Pichai 转发了该公告,并表示 Gemma 4 是“在每个参数中打包了令人难以置信的智能量”。
这些模型旨在覆盖广泛的硬件运行范围,从智能手机和笔记本到 GPU 与开发者工作站;更小的变体能够在本地运行,无需持续的互联网访问。
开发者可以从多个平台开始测试 Gemma 4。对于更高性能的用例,31B 和 26B MoE 模型可在 Google AI Studio 上使用;而更小的 E2B 和 E4B 变体则可通过 Google AI Edge Gallery 访问,面向端侧与轻量级应用。
披露:本文不构成投资建议。本文页面中展示的内容与材料仅用于教育目的。