一个小站的自留地
谷歌发布轻量级开源大语言模型 Gemma 3 270M Gemma 3 是 Google 推出的轻量级多模态开源大模型家族,延续 Gemini 技术,支持文本与图像输入(最高 128K 上下文),覆盖 140+ 语言,适用于问答、摘要、推理等任务。 新发布的 Gemma 3 270M 在端侧推理场景,取得了超越 Qwen3 0.5B 的成绩。 (Google)
Google DeepMind 发布 Gemma 4 开源模型家族,采用 Apache 2.0 许可证

4 月 2 日,Google DeepMind 正式发布新一代开源模型家族 Gemma 4,这是目前该系列中能力最强的版本。Gemma 4 基于与 Gemini 3 相同的研究技术构建,主打高级推理和智能体 (agentic) 工作流,在同参数量级模型中实现了领先的性能表现。

Gemma 4 共推出四个尺寸:Effective 2B (E2B)、Effective 4B (E4B)、26B 混合专家模型 (MoE) 和 31B 稠密模型 (Dense)。其中 31B 模型在 Arena AI 文本排行榜上位列开源模型第 3 名,26B 模型排名第 6,二者均超越了参数量达其 20 倍的竞争模型。26B MoE 模型在推理时仅激活 38 亿参数,侧重低延迟响应;31B Dense 模型则追求最高输出质量,适合作为微调基础。

在端侧部署方面,E2B 和 E4B 模型专为移动设备和物联网场景设计,可在手机、Raspberry Pi、NVIDIA Jetson Orin Nano 等设备上完全离线运行,实现接近零延迟的推理。Android 开发者可通过 AICore Developer Preview 立即开始原型开发,实现与未来 Gemini Nano 4 的前向兼容。

核心能力方面,Gemma 4 支持多步规划与深度逻辑推理、原生函数调用与结构化 JSON 输出、高质量离线代码生成,以及视频、图像、音频等多模态输入(音频输入仅限 E2B 和 E4B)。上下文窗口方面,边缘模型支持 128K 词元,大模型支持最高 256K 词元。此外,Gemma 4 原生支持超过 140 种语言。

值得关注的是,Gemma 4 采用了商业友好的 Apache 2.0 开源许可证。

Google DeepMind
 
 
Back to Top