起于小站,终于生活。
现实之外,一个普通人的思考。

博客地址:ygxz.in
讨论组:https://t.me/ygxz_group
#推广

💎 特别优惠:
Cubence 是一家稳定高效的 AI 服务中转平台,为 Claude Code、Codex、Gemini 等 AI 工具提供中转服务,有着不错的稳定性和性价比。
Cubence 为 CCH 的使用用户提供了特别的优惠折扣:在购买时使用优惠券 DING113CCH,可享受 10% 优惠折扣。
立即访问

💎 特别优惠:
PackyCode 是一家稳定、高效的 API 中转服务商,提供 Claude Code、Codex、Gemini 等多种中转服务。
PackyCode 为本软件的用户提供了特别优惠,使用此链接注册并在充值时填写优惠码 WITHCCH,可享受 9 折优惠
立即访问

💎 特别优惠:
YesCode 是一家低调务实的 AI API 中转服务商,专注于为开发者提供稳定可靠的 Claude、Codex、Gemini 等模型接入服务,以扎实的技术底蕴和持续稳定的服务质量赢得用户信赖。
通过此链接注册即可体验
立即访问

💎 特别优惠:
AIGoCode 是一个集成了 Claude Code、Codex 以及 Gemini 最新模型的一站式平台,为你提供稳定、高效且高性价比的 AI 编程服务。提供灵活的订阅计划,可包月可套餐,零封号风险,国内直连,无需魔法,超大积分池,极速响应。
AIGoCode 为 CCH 的用户提供了特别福利,通过此链接注册的用户首次充值可以获得额外 10% 奖励额度
立即访问

💎 特别优惠:
感谢 AICodeMirror 对本项目的赞助!AICodeMirror 提供 Claude Code / Codex / Gemini CLI 官方高稳定性中转服务,支持企业级并发、快速开票、7×24 小时专属技术支持。Claude Code / Codex / Gemini 官方渠道价格低至原价的 38% / 6% / 9%,充值还有额外折扣!针对 claude-code-hub 用户,AICodeMirror 特别推出福利:通过下方链接注册,首充立享 8 折 优惠;企业客户更可享受最高 7.5 折 折上折。
立即访问

💎 特别优惠:
PatewayAI 是一家面向重度 AI 开发者、专注官方直连的高品质模型 API 中转服务商。提供 Claude 全系列与 Codex 系列模型,100% 官方源直供,不掺假不注水,欢迎检验。计费透明,Token 级账单可逐笔核验。
同时支持企业级高并发,并为企业客户提供了专业的管理平台,企业客户可签订正式合同并开具发票,更多详情进入官网获取联系方式。
现在通过 此链接注册 即送 $3 试用额度,用户充值低至 6 折,邀请好友双向赠送,邀请奖励可达 $150。
立即访问
Linux 内核披露 Copy Fail 本地提权漏洞

安全研究人员于 2026 年 4 月 29 日公开披露了名为 Copy Fail 的 Linux 内核高危漏洞 (CVE-2026-31431) 并详细说明了其作用机制。该漏洞源于 2017 年引入的 algif_aead 就地 (In-place) 优化机制,涉及内核加密子系统中的 AF_ALG、algif_aead 以及 authencesn 交互路径。

利用该漏洞,本地低权限用户可以向受影响系统上任意可读文件的页面缓存 (Page cache) 中写入受控的 4 字节数据。由于写入操作仅发生在内存层面且不修改磁盘文件本身,攻击者可以避开常规的文件完整性校验机制。随后,攻击者通过污染 setuid-root 程序的内存缓存副本便可实现本地提权并获取 root 权限。这对多租户主机、共享开发机和 CI 运行器等环境构成了严重威胁。

目前 kernel.org 已将该漏洞的 CVSS 在 v3.1 标准下的评级定为 7.8 分的高危级别。官方已通过将相关操作恢复为异地 (Out-of-place) 的方式修复了此问题,并且补丁已进入主线及稳定分支。主流发行版如 Ubuntu、Debian、SUSE 和 Amazon Linux 正在陆续发布安全更新。建议用户尽快将内核更新至已修复版本并重启系统。若暂时无法更新,用户可考虑禁用 algif_aead 模块或通过 seccomp 限制不可信工作负载创建 AF_ALG 套接字 (Socket) 来作为临时缓解方案。

(综合媒体报道)
一个小站的自留地
LiteLLM 仓库遭受供应链攻击 LLM 代理工具 LiteLLM 遭受名为 TeamPCP 的威胁行为者发起的供应链攻击。攻击者在 Python 软件包索引 (Python Package Index, PyPI) 发布了包含信息窃取程序的 1.82.7 和 1.82.8 恶意版本,上述版本在暴露约 3 小时后被官方隔离。 攻击者首先利用外泄的个人访问令牌 (Personal Access Token, PAT) ,在开发商 BerriAI 的 GitHub 仓库中推送了恶意的 GitHub Actions…
开源 AI 网关 LiteLLM 修复认证前 SQL 注入等三个高危漏洞

LiteLLM 在 1.83.7 版本中修复三个高危漏洞,均影响 <1.83.7 版本。

CVE-2026-42208(CVSS v4.0 9.3 Critical)是认证前 SQL 注入,攻击者可通过特制 Authorization header 读取或修改数据库,获取代理密钥和上游模型供应商凭证,受影响版本 >=1.81.16;

CVE-2026-42203 是 /prompts/test 端点服务端模板注入,需有效 proxy API key 即可 RCE,受影响版本 >=1.80.5;

CVE-2026-42271 是 MCP stdio test endpoints 认证后命令执行,低权限用户可在代理主机执行任意命令,受影响版本 >=1.74.2。

Sysdig 已观测到 CVE-2026-42208 的针对性利用尝试,攻击者在公告发布后 36 小时内开始枚举高价值数据库表。官方建议升级到 1.83.7 或更高版本,曾公网暴露的实例应轮换所有凭证并审计账单。

Sysdig
一个小站的自留地
DeepSeek 新模型已经可以在 DeepSeek 官网或手机端使用,1M 上下文,不支持多模态,知识截止日期到 2025 年 5 月。 —————— 深度求索客服称,「DeepSeek 网页/ APP 正在测试新的长文本模型结构,支持 1M 上下文。 注意:API 服务不变,仍为 V3.2,仅支持 128K 上下文。 感谢各位的持续关注~祝新年快乐」
深度求索发布 DeepSeek-V4 系列模型

4 月 24 日,深度求索宣布推出并同步开源全新一代大语言模型 DeepSeek-V4 预览版。该系列模型按参数规模分为 DeepSeek-V4-Pro 和 DeepSeek-V4-Flash 两个版本,不仅在智能体能力、世界知识和推理性能上实现开源领域领先,更全面迈入一百万词元 (Token) 超长上下文的普惠时代。

在性能表现上,包含 1.6 万亿参数、激活参数为 490 亿的 DeepSeek-V4-Pro 模型在数学、STEM 及竞赛型代码的评测中超越了当前所有已公开评测的开源模型,取得了比肩国际顶级闭源大语言模型的优异成绩。其在智能体编程任务上的表现逼近 Opus 4.6 的水平。另一款包含 2840 亿参数、激活参数为 130 亿的 DeepSeek-V4-Flash 模型则凭借更小的激活参数量,提供更加快捷和经济的 API 服务,并在简单智能体任务上与 Pro 版本旗鼓相当。

架构层面,DeepSeek-V4 首创混合注意力机制,将压缩稀疏注意力 (CSA) 与重度压缩注意力 (HCA) 相结合,并引入了流形约束超连接 (mHC) 与 Muon 优化器。配合对模型专家权重的 FP4 量化感知训练,新架构大幅降低了计算和显存需求。在一百万词元上下文场景下,DeepSeek-V4-Pro 的单词元推理计算量仅为前代 V3.2 版本的 27%,KV 缓存仅为 10%。

目前,用户已可通过官方网站或应用体验新模型。API 服务也已同步更新,最大上下文长度均为一百万词元,并同时支持非思考模式与思考模式。

深度求索
一个小站的自留地
OpenAI 发布 ChatGPT Images 2.0 OpenAI 发布全新图像生成模型 ChatGPT Images 2.0,Sam Altman 称此更新「就像从 GPT-3 一步跳到了 GPT-5」。该模型首次引入 Thinking 能力,提供 Instant 与 Thinking 两种生成模式。Instant 模式已向所有用户开放,覆盖 ChatGPT、Codex 及 API 入口,主打快速响应;Thinking 模式则需 Plus、Pro 或 Business 订阅,可在生成前实时联网搜索…
OpenAI 发布了 GPT-5.5 及 GPT-5.5 Pro。

在性能方面,GPT-5.5 在现实服务中保持了与 GPT-5.4 相同的单词元 (Token) 延迟,但智能水平大幅提升,且完成相同 Codex 任务所需的词元数量显著减少。该模型在智能体编程、计算机操作、知识工作和早期科学研究领域的提升尤为明显。在 Terminal-Bench 2.0 测试中,GPT-5.5 取得了 82.7% 的准确率;在 SWE-Bench Pro 测试中达到 58.6%。此外,GPT-5.5 还在 GeneBench 等科学数据分析基准测试中表现优异。

安全与网络安全方面,GPT-5.5 配备了 OpenAI 迄今最严格的安全防护机制。OpenAI 正在部署更严格的潜在网络风险分类器,并推出针对网络防御的信任访问机制。负责保护关键基础设施的组织可以申请使用如 GPT-5.4-Cyber 等允许网络操作的模型。

可用性与定价方面,GPT-5.5 目前正向 ChatGPT 和 Codex 的 Plus、Pro、Business 和 Enterprise 用户逐步开放。GPT-5.5 Pro 专为处理更高难度和更高准确度要求的任务设计,正向 ChatGPT 的 Pro、Business 和 Enterprise 用户开放。

在 API 方面,gpt-5.5 即将推出并提供 100 万词元的上下文窗口。其输入价格为每 100 万词元 5 美元 且输出价格为每 100 万词元 30 美元 ;gpt-5.5-pro 的输入价格为每 100 万词元 30 美元且输出价格为每 100 万词元 180 美元 。Codex 中的 GPT-5.5 将提供 40 万词元的上下文窗口,并支持速度提升 1.5 倍但成本为 2.5 倍的快速模式。

OpenAI
Xiaomi MiMo-V2.5 系列大模型开启公测

Xiaomi 发布了 MiMo-V2.5 系列大模型,包含 MiMo-V2.5、MiMo-V2.5-Pro、MiMo-V2.5-TTS Series 和 MiMo-V2.5-ASR 四款模型。官方表示本次更新实现了模型从能用到好用的全面跨越,重点提升了推理能力、智能体 (Agent) 稳定性、上下文长度以及全模态感知与理解。

MiMo-V2.5-Pro 主打通用智能体能力、复杂软件工程和长程任务。MiMo-V2.5 则具备百万上下文窗口。在同等评测分数下,Pro 版本比 Kimi K2.6 节省了 42% 的词元,标准版比 Muse Spark 节省了 50%。

小米还宣布, MiMo-V2.5-Pro 和 MiMo-V2.5 模型即将全球开源。

Xiaomi MiMo
一个小站的自留地
DeepSeek 新模型已经可以在 DeepSeek 官网或手机端使用,1M 上下文,不支持多模态,知识截止日期到 2025 年 5 月。 —————— 深度求索客服称,「DeepSeek 网页/ APP 正在测试新的长文本模型结构,支持 1M 上下文。 注意:API 服务不变,仍为 V3.2,仅支持 128K 上下文。 感谢各位的持续关注~祝新年快乐」
有用户发现,DeepSeek 的官方 API 疑似更新了模型版本,模型现在会回答「知识截止日期是 2025 年 5 月,上下文长度可以达到 1M」等信息,与先前官网提供的长上下文测试模型能力一致。

另有消息称,DeepSeek 可能会在本周四公开新模型。而根据市场预测,OpenAI 也将在本周四发布 gpt-5.5 模型。
一个小站的自留地
OpenAI 的最新图像生成模型 GPT Image 2 据称已在 ChatGPT 全量上线。包含 Free 账户在内的大多数账户都已可用。该模型显著增强了复杂场景、文字生成、UI 生成场景的性能,也解决了前代的偏色问题。 OpenAI 将于今晚直播发布会。
OpenAI 发布 ChatGPT Images 2.0

OpenAI 发布全新图像生成模型 ChatGPT Images 2.0,Sam Altman 称此更新「就像从 GPT-3 一步跳到了 GPT-5」。该模型首次引入 Thinking 能力,提供 Instant 与 Thinking 两种生成模式。Instant 模式已向所有用户开放,覆盖 ChatGPT、Codex 及 API 入口,主打快速响应;Thinking 模式则需 Plus、Pro 或 Business 订阅,可在生成前实时联网搜索、规划图像结构并执行自我核查,单次提示最多输出 8 张保持角色与对象连贯性的图像。

新模型的指令跟随精度大幅提升,支持复杂构图、小号文字、图标及 UI 元素,API 端最高支持 2 K 分辨率。其多语言文本渲染能力显著改善,对中文、日文、韩文等非拉丁文字的排版尤为准确。模型知识截止于 2025 年 12 月,在生成信息图、教育图表等内容时具备更好的时效性。此外,它支持 3:1 至 1:3 的灵活宽高比,并已直接集成至 Codex 工作区。

在大模型竞技场(Chatbot Arena)中,ChatGPT Images 2.0 已登顶图像生成榜单,并在文本到图像任务中领先第二名 Nano Banana 2 达 240 分。目前,Canva、Figma、Adobe 与 OpenArt 已宣布接入 gpt-image-2 API,开发者无需离开现有工作流即可直接调用。

(综合媒体报道)
一个小站的自留地
月之暗面通过邮件宣布,K2.6-code-preview 新模型即将全量推出。 此前,月之暗面通过 Kimi Code 抢先体验计划向部分用户开放了该模型的访问权限。
Kimi K2.6 开源发布

月之暗面 (Moonshot AI) 发布并开源了最新模型 Kimi K2.6,主打编程、长时程任务执行和智能体集群 (Agent Swarm) 能力。该模型现已通过 Kimi.com、Kimi App、API 及 Kimi Code 提供使用。

在编程能力方面,Kimi K2.6 在 SWE-Bench Pro 上得分 58.6,超过 GPT-5.4 的 57.7 和 Claude Opus 4.6 的 53.4;Terminal-Bench 2.0 得分 66.7,与 GPT-5.4 和 Claude Opus 4.6 的 65.4 持平;SWE-Bench Multilingual 得分 76.7,接近 Claude Opus 4.6 的 77.8。不过在 SciCode (52.2 vs 58.9)、OJBench (60.6 vs 70.7)、LiveCodeBench v6 (89.6 vs 91.7) 等基准上,Gemini 3.1 Pro 仍保持领先。

在通用智能体基准上,Kimi K2.6 在 Humanity's Last Exam (带工具) 上以 54.0 领先 GPT-5.4 的 52.1 和 Claude Opus 4.6 的 53.0;DeepSearchQA F1 得分 92.5,大幅领先 GPT-5.4 的 78.6。但在 BrowseComp 上 Gemini 3.1 Pro 以 85.9 领先 Kimi K2.6 的 83.2,Toolathlon 上 GPT-5.4 以 54.6 领先 Kimi K2.6 的 50.0。在推理与知识类基准上,Kimi K2.6 与头部模型仍有差距,如 HLE-Full 得分 34.7,低于 Gemini 3.1 Pro 的 44.4 和 Claude Opus 4.6 的 40.0。

多家企业在测试评价中给予正面反馈。Vercel 表示 K2.6 在其 Next.js 基准上相比 K2.5 提升超过 50%,跻身平台表现最佳的模型之列;CodeBuddy 的内部评估显示代码生成准确率提升 12%,长上下文稳定性提升 18%,工具调用成功率达 96.60%。Ollama 也表示 K2.6 将开箱支持其所有集成。

Kimi
一个小站的自留地
阿里推出  Qwen3.6 Plus Preview  和 Qwen3.5-Omni  系列大模型 阿里 Qwen 团队在 OpenRouter 平台正式上线了  Qwen3.6 Plus Preview  模型。该模型作为  Qwen Plus  系列的下一代演进版本,采用先进的混合架构以提升效率与可扩展性。其支持高达  1,000,000 token 的上下文窗口以及最大  65,536 tokens 的输出。 模型预览期间,开发者可以在 OpenRouter、OpenCode 和 Kilo Code…
通义千问发布下一代旗舰模型早期预览版 Qwen3.6-Max-Preview

继 Qwen3.6-Plus 之后,阿里云通义千问团队发布了下一代旗舰模型的早期预览版 Qwen3.6-Max-Preview。官方表示,该模型在智能体编程、世界知识和指令遵循三个方面相比 Qwen3.6-Plus 均有显著提升。

在智能体编程方面,Qwen3.6-Max-Preview 在六项主要编程基准上取得最高分,包括 SWE-bench Pro (57.3)、Terminal-Bench 2.0 (65.4)、SkillsBench (55.6)、SciCode (47.0) 等,相比 Qwen3.6-Plus 分别提升了约 0.7、3.8、9.9、10.8 个百分点。在世界知识方面,SuperGPQA 得分达到 73.9,QwenChineseBench 达到 84.0,分别提升 2.3 和 5.3。指令遵循基准 ToolcallFormatIFBench 得分 86.1,提升 2.8。

从评测图表来看,对比模型还包括 Qwen 3.5 Plus、Claude 4.5 Opus 和 GLM 5.1。Qwen3.6-Max-Preview 在多数基准上领先,但在 SWE-bench Pro 上 GLM 5.1 以 58.4 略高于其 57.3,QwenWebBench 上 GLM 5.1 以 1558 的 Elo 评分也略高于其 1532。

用户目前可通过 Qwen Studio (chat.qwen.ai) 体验该模型,后续将通过阿里云百炼 API 以「qwen3.6-max-preview」的名称提供调用。本次发布还支持 preserve_thinking 功能,可在多轮对话中保留前序轮次的思维内容,官方推荐将其用于智能体任务。

通义千问
一个小站的自留地
据财联社,Anthropic 正准备发布下一代旗舰模型 Claude Opus 4.7,以及一款用于设计网站和演示文稿的新型 AI 工具。这些新产品最早可能在本周发布。
Anthropic 正式发布 Claude Opus 4.7

Anthropic 宣布其最新模型 Claude Opus 4.7 现已全面可用。

Opus 4.7 的视觉分辨率支持得到大幅加强,可识别长边高达 2576 像素(约 375 万像素)的图像,为此前型号的三倍以上。此外,新模型在处理专业任务时具备更出色的设计品味与创造力,能生成更高质量的界面、幻灯片和文档。

Opus 4.7 搭载了自动检测和拦截高风险网络安全请求的防护机制。Anthropic 明确表示,为进行风险控制,该模型的网络安全能力刻意保持在低于 Claude Mythos Preview 的水平。

目前,Claude Opus 4.7 已在所有 Claude 产品及其 API、Amazon Bedrock、Google Cloud 的 Vertex AI 以及 Microsoft Foundry 上线。定价与 Opus 4.6 保持一致,为每百万输入词元 (Token) 5 美元,每百万输出词元 25 美元。

伴随模型发布,Anthropic 还推出了多项更新。模型引入了介于 high 和 max 之间的新工作量控制 (Effort level) 级别 xhigh;在 API 中公开测试任务预算 (Task budgets) 功能,方便开发者控制较长任务的词元消耗。此外,Claude Code 新增了 /ultrareview 命令用于深度代码审查,并将自动模式 (Auto mode) 的适用范围扩展至 Max 用户。值得注意的是,Opus 4.7 采用了更新的分词器 (Tokenizer) ,相同输入的词元消耗量将变为原来的 1.0 至 1.35 倍。

Anthropic
一个小站的自留地
据未经证实的消息,Anthropic 即将发布 Claude 4.7 系列模型。
据财联社,Anthropic 正准备发布下一代旗舰模型 Claude Opus 4.7,以及一款用于设计网站和演示文稿的新型 AI 工具。这些新产品最早可能在本周发布。
一个小站的自留地
Anthropic  正式发布  Claude Sonnet 4.6 Anthropic  正式发布  Claude Sonnet 4.6,官方称其为迄今最强的  Sonnet  模型。该模型在编程、长上下文推理、Agent  规划、知识工作及设计等领域全面升级,并提供支持  100 万  token 的上下文窗口(Beta 版)。价格维持每百万 token 输入  3  美元、输出  15  美元不变。 在编程方面,根据  Claude Code  的早期测试,约  70%  的开发者更偏好  Sonnet…
Anthropic 联合多家科技巨头发起 Project Glasswing 计划,发布 Claude Mythos Preview 模型

4 月 7 日,Anthropic 宣布推出 Project Glasswing 计划。该计划联合了 Amazon、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、Microsoft、NVIDIA 和 Palo Alto Networks 等机构,旨在保护全球关键软件基础设施的安全。

作为该计划的核心,Anthropic 揭晓了其最新训练的前沿大语言模型 Claude Mythos Preview。该模型展现出了极强的网络安全能力,在过去几周的测试中发现了数千个高危的零日漏洞,涵盖了所有主流操作系统和网络浏览器。例如,它发现了一个隐藏在 OpenBSD 中长达 27 年的漏洞,以及一个在 FFmpeg 中潜伏了 16 年的漏洞,并能针对这些漏洞自主编写复杂的攻击载荷。

考虑到这种网络安全能力的双刃剑性质,Anthropic 决定不向公众开放 Claude Mythos Preview 的普遍访问权限。该模型将仅提供给 Project Glasswing 的初始合作伙伴及其他约 40 个关键软件基础设施维护组织,用于防御性的安全扫描与修复工作。Anthropic 承诺为参与组织提供价值 1 亿美元的模型使用额度,并向开源安全组织直接捐赠 400 万美元。参与者后续可通过 API 访问该模型,输入和输出的定价分别为每百万词元 (Token) 25 美元和 125 美元。

Anthropic)(Model Card
一个小站的自留地
GLM-5.1 现已面向 GLM Coding Plan 全部用户 (Lite/Pro/Max) 开放。
智谱发布 GLM-5.1

4 月 8 日,智谱发布了最新的大语言模型 GLM-5.1,并基于 MIT 协议正式开源。该模型具备 7440 亿 (744B) 参数,激活参数为 400 亿 (40B)。

GLM-5.1 显著强化了编码与智能体 (Agent) 能力,在工程化任务中表现突出。在 SWE-Bench Pro 基准测试中,其得分达到 58.4,超过 GPT-5.4 与 Claude Opus 4.6,位列全球首位。在三个榜单的综合测试中也位列全球第三,开源第一。实际测试显示,GLM-5.1 具备长时间独立工作的能力,能够自主完成 Linux 桌面系统构建、向量搜索引擎优化及大规模模型加速代码编写等复杂工程任务。该模型目前已实现对华为昇腾、摩尔线程等七家国产芯片平台的全栈适配,并支持多种主流部署方案。

智谱 AI
#推广

💎 特别优惠:
Cubence 是一家稳定高效的 AI 服务中转平台,为 Claude Code、Codex、Gemini 等 AI 工具提供中转服务,有着不错的稳定性和性价比。
Cubence 为 CCH 的使用用户提供了特别的优惠折扣:在购买时使用优惠券 DING113CCH,可享受 10% 优惠折扣。
立即访问

💎 特别优惠:
PackyCode 是一家稳定、高效的 API 中转服务商,提供 Claude Code、Codex、Gemini 等多种中转服务。
PackyCode 为本软件的用户提供了特别优惠,使用此链接注册并在充值时填写优惠码 WITHCCH,可享受 9 折优惠
立即访问

💎 特别优惠:
YesCode 是一家低调务实的 AI API 中转服务商,专注于为开发者提供稳定可靠的 Claude、Codex、Gemini 等模型接入服务,以扎实的技术底蕴和持续稳定的服务质量赢得用户信赖。
通过此链接注册即可体验
立即访问

💎 特别优惠:
AIGoCode 是一个集成了 Claude Code、Codex 以及 Gemini 最新模型的一站式平台,为你提供稳定、高效且高性价比的 AI 编程服务。提供灵活的订阅计划,可包月可套餐,零封号风险,国内直连,无需魔法,超大积分池,极速响应。
AIGoCode 为 CCH 的用户提供了特别福利,通过此链接注册的用户首次充值可以获得额外 10% 奖励额度
立即访问

💎 特别优惠:
感谢 AICodeMirror 对本项目的赞助!AICodeMirror 提供 Claude Code / Codex / Gemini CLI 官方高稳定性中转服务,支持企业级并发、快速开票、7×24 小时专属技术支持。Claude Code / Codex / Gemini 官方渠道价格低至原价的 38% / 6% / 9%,充值还有额外折扣!针对 claude-code-hub 用户,AICodeMirror 特别推出福利:通过下方链接注册,首充立享 8 折 优惠;企业客户更可享受最高 7.5 折 折上折。
立即访问
一个小站的自留地
谷歌发布轻量级开源大语言模型 Gemma 3 270M Gemma 3 是 Google 推出的轻量级多模态开源大模型家族,延续 Gemini 技术,支持文本与图像输入(最高 128K 上下文),覆盖 140+ 语言,适用于问答、摘要、推理等任务。 新发布的 Gemma 3 270M 在端侧推理场景,取得了超越 Qwen3 0.5B 的成绩。 (Google)
Google DeepMind 发布 Gemma 4 开源模型家族,采用 Apache 2.0 许可证

4 月 2 日,Google DeepMind 正式发布新一代开源模型家族 Gemma 4,这是目前该系列中能力最强的版本。Gemma 4 基于与 Gemini 3 相同的研究技术构建,主打高级推理和智能体 (agentic) 工作流,在同参数量级模型中实现了领先的性能表现。

Gemma 4 共推出四个尺寸:Effective 2B (E2B)、Effective 4B (E4B)、26B 混合专家模型 (MoE) 和 31B 稠密模型 (Dense)。其中 31B 模型在 Arena AI 文本排行榜上位列开源模型第 3 名,26B 模型排名第 6,二者均超越了参数量达其 20 倍的竞争模型。26B MoE 模型在推理时仅激活 38 亿参数,侧重低延迟响应;31B Dense 模型则追求最高输出质量,适合作为微调基础。

在端侧部署方面,E2B 和 E4B 模型专为移动设备和物联网场景设计,可在手机、Raspberry Pi、NVIDIA Jetson Orin Nano 等设备上完全离线运行,实现接近零延迟的推理。Android 开发者可通过 AICore Developer Preview 立即开始原型开发,实现与未来 Gemini Nano 4 的前向兼容。

核心能力方面,Gemma 4 支持多步规划与深度逻辑推理、原生函数调用与结构化 JSON 输出、高质量离线代码生成,以及视频、图像、音频等多模态输入(音频输入仅限 E2B 和 E4B)。上下文窗口方面,边缘模型支持 128K 词元,大模型支持最高 256K 词元。此外,Gemma 4 原生支持超过 140 种语言。

值得关注的是,Gemma 4 采用了商业友好的 Apache 2.0 开源许可证。

Google DeepMind
Back to Top