Xiaomi 发布了 MiMo-V2.5 系列大模型,包含 MiMo-V2.5、MiMo-V2.5-Pro、MiMo-V2.5-TTS Series 和 MiMo-V2.5-ASR 四款模型。官方表示本次更新实现了模型从能用到好用的全面跨越,重点提升了推理能力、智能体 (Agent) 稳定性、上下文长度以及全模态感知与理解。
MiMo-V2.5-Pro 主打通用智能体能力、复杂软件工程和长程任务。MiMo-V2.5 则具备百万上下文窗口。在同等评测分数下,Pro 版本比 Kimi K2.6 节省了 42% 的词元,标准版比 Muse Spark 节省了 50%。
小米还宣布, MiMo-V2.5-Pro 和 MiMo-V2.5 模型即将全球开源。
(Xiaomi MiMo)
有用户发现,DeepSeek 的官方 API 疑似更新了模型版本,模型现在会回答「知识截止日期是 2025 年 5 月,上下文长度可以达到 1M」等信息,与先前官网提供的长上下文测试模型能力一致。
另有消息称,DeepSeek 可能会在本周四公开新模型。而根据市场预测,OpenAI 也将在本周四发布 gpt-5.5 模型。
另有消息称,DeepSeek 可能会在本周四公开新模型。而根据市场预测,OpenAI 也将在本周四发布 gpt-5.5 模型。
OpenAI 发布全新图像生成模型 ChatGPT Images 2.0,Sam Altman 称此更新「就像从 GPT-3 一步跳到了 GPT-5」。该模型首次引入 Thinking 能力,提供 Instant 与 Thinking 两种生成模式。Instant 模式已向所有用户开放,覆盖 ChatGPT、Codex 及 API 入口,主打快速响应;Thinking 模式则需 Plus、Pro 或 Business 订阅,可在生成前实时联网搜索、规划图像结构并执行自我核查,单次提示最多输出 8 张保持角色与对象连贯性的图像。
新模型的指令跟随精度大幅提升,支持复杂构图、小号文字、图标及 UI 元素,API 端最高支持 2 K 分辨率。其多语言文本渲染能力显著改善,对中文、日文、韩文等非拉丁文字的排版尤为准确。模型知识截止于 2025 年 12 月,在生成信息图、教育图表等内容时具备更好的时效性。此外,它支持 3:1 至 1:3 的灵活宽高比,并已直接集成至 Codex 工作区。
在大模型竞技场(Chatbot Arena)中,ChatGPT Images 2.0 已登顶图像生成榜单,并在文本到图像任务中领先第二名 Nano Banana 2 达 240 分。目前,Canva、Figma、Adobe 与 OpenArt 已宣布接入 gpt-image-2 API,开发者无需离开现有工作流即可直接调用。
(综合媒体报道)
OpenAI 的最新图像生成模型 GPT Image 2 据称已在 ChatGPT 全量上线。包含 Free 账户在内的大多数账户都已可用。该模型显著增强了复杂场景、文字生成、UI 生成场景的性能,也解决了前代的偏色问题。
OpenAI 将于今晚直播发布会。
OpenAI 将于今晚直播发布会。
月之暗面 (Moonshot AI) 发布并开源了最新模型 Kimi K2.6,主打编程、长时程任务执行和智能体集群 (Agent Swarm) 能力。该模型现已通过 Kimi.com、Kimi App、API 及 Kimi Code 提供使用。
在编程能力方面,Kimi K2.6 在 SWE-Bench Pro 上得分 58.6,超过 GPT-5.4 的 57.7 和 Claude Opus 4.6 的 53.4;Terminal-Bench 2.0 得分 66.7,与 GPT-5.4 和 Claude Opus 4.6 的 65.4 持平;SWE-Bench Multilingual 得分 76.7,接近 Claude Opus 4.6 的 77.8。不过在 SciCode (52.2 vs 58.9)、OJBench (60.6 vs 70.7)、LiveCodeBench v6 (89.6 vs 91.7) 等基准上,Gemini 3.1 Pro 仍保持领先。
在通用智能体基准上,Kimi K2.6 在 Humanity's Last Exam (带工具) 上以 54.0 领先 GPT-5.4 的 52.1 和 Claude Opus 4.6 的 53.0;DeepSearchQA F1 得分 92.5,大幅领先 GPT-5.4 的 78.6。但在 BrowseComp 上 Gemini 3.1 Pro 以 85.9 领先 Kimi K2.6 的 83.2,Toolathlon 上 GPT-5.4 以 54.6 领先 Kimi K2.6 的 50.0。在推理与知识类基准上,Kimi K2.6 与头部模型仍有差距,如 HLE-Full 得分 34.7,低于 Gemini 3.1 Pro 的 44.4 和 Claude Opus 4.6 的 40.0。
多家企业在测试评价中给予正面反馈。Vercel 表示 K2.6 在其 Next.js 基准上相比 K2.5 提升超过 50%,跻身平台表现最佳的模型之列;CodeBuddy 的内部评估显示代码生成准确率提升 12%,长上下文稳定性提升 18%,工具调用成功率达 96.60%。Ollama 也表示 K2.6 将开箱支持其所有集成。
(Kimi)
继 Qwen3.6-Plus 之后,阿里云通义千问团队发布了下一代旗舰模型的早期预览版 Qwen3.6-Max-Preview。官方表示,该模型在智能体编程、世界知识和指令遵循三个方面相比 Qwen3.6-Plus 均有显著提升。
在智能体编程方面,Qwen3.6-Max-Preview 在六项主要编程基准上取得最高分,包括 SWE-bench Pro (57.3)、Terminal-Bench 2.0 (65.4)、SkillsBench (55.6)、SciCode (47.0) 等,相比 Qwen3.6-Plus 分别提升了约 0.7、3.8、9.9、10.8 个百分点。在世界知识方面,SuperGPQA 得分达到 73.9,QwenChineseBench 达到 84.0,分别提升 2.3 和 5.3。指令遵循基准 ToolcallFormatIFBench 得分 86.1,提升 2.8。
从评测图表来看,对比模型还包括 Qwen 3.5 Plus、Claude 4.5 Opus 和 GLM 5.1。Qwen3.6-Max-Preview 在多数基准上领先,但在 SWE-bench Pro 上 GLM 5.1 以 58.4 略高于其 57.3,QwenWebBench 上 GLM 5.1 以 1558 的 Elo 评分也略高于其 1532。
用户目前可通过 Qwen Studio (chat.qwen.ai) 体验该模型,后续将通过阿里云百炼 API 以「qwen3.6-max-preview」的名称提供调用。本次发布还支持 preserve_thinking 功能,可在多轮对话中保留前序轮次的思维内容,官方推荐将其用于智能体任务。
(通义千问)
Anthropic 宣布其最新模型 Claude Opus 4.7 现已全面可用。
Opus 4.7 的视觉分辨率支持得到大幅加强,可识别长边高达 2576 像素(约 375 万像素)的图像,为此前型号的三倍以上。此外,新模型在处理专业任务时具备更出色的设计品味与创造力,能生成更高质量的界面、幻灯片和文档。
Opus 4.7 搭载了自动检测和拦截高风险网络安全请求的防护机制。Anthropic 明确表示,为进行风险控制,该模型的网络安全能力刻意保持在低于 Claude Mythos Preview 的水平。
目前,Claude Opus 4.7 已在所有 Claude 产品及其 API、Amazon Bedrock、Google Cloud 的 Vertex AI 以及 Microsoft Foundry 上线。定价与 Opus 4.6 保持一致,为每百万输入词元 (Token) 5 美元,每百万输出词元 25 美元。
伴随模型发布,Anthropic 还推出了多项更新。模型引入了介于 high 和 max 之间的新工作量控制 (Effort level) 级别 xhigh;在 API 中公开测试任务预算 (Task budgets) 功能,方便开发者控制较长任务的词元消耗。此外,Claude Code 新增了 /ultrareview 命令用于深度代码审查,并将自动模式 (Auto mode) 的适用范围扩展至 Max 用户。值得注意的是,Opus 4.7 采用了更新的分词器 (Tokenizer) ,相同输入的词元消耗量将变为原来的 1.0 至 1.35 倍。
(Anthropic)
Anthropic 联合多家科技巨头发起 Project Glasswing 计划,发布 Claude Mythos Preview 模型
4 月 7 日,Anthropic 宣布推出 Project Glasswing 计划。该计划联合了 Amazon、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、Microsoft、NVIDIA 和 Palo Alto Networks 等机构,旨在保护全球关键软件基础设施的安全。
作为该计划的核心,Anthropic 揭晓了其最新训练的前沿大语言模型 Claude Mythos Preview。该模型展现出了极强的网络安全能力,在过去几周的测试中发现了数千个高危的零日漏洞,涵盖了所有主流操作系统和网络浏览器。例如,它发现了一个隐藏在 OpenBSD 中长达 27 年的漏洞,以及一个在 FFmpeg 中潜伏了 16 年的漏洞,并能针对这些漏洞自主编写复杂的攻击载荷。
考虑到这种网络安全能力的双刃剑性质,Anthropic 决定不向公众开放 Claude Mythos Preview 的普遍访问权限。该模型将仅提供给 Project Glasswing 的初始合作伙伴及其他约 40 个关键软件基础设施维护组织,用于防御性的安全扫描与修复工作。Anthropic 承诺为参与组织提供价值 1 亿美元的模型使用额度,并向开源安全组织直接捐赠 400 万美元。参与者后续可通过 API 访问该模型,输入和输出的定价分别为每百万词元 (Token) 25 美元和 125 美元。
(Anthropic)(Model Card)
4 月 7 日,Anthropic 宣布推出 Project Glasswing 计划。该计划联合了 Amazon、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、Microsoft、NVIDIA 和 Palo Alto Networks 等机构,旨在保护全球关键软件基础设施的安全。
作为该计划的核心,Anthropic 揭晓了其最新训练的前沿大语言模型 Claude Mythos Preview。该模型展现出了极强的网络安全能力,在过去几周的测试中发现了数千个高危的零日漏洞,涵盖了所有主流操作系统和网络浏览器。例如,它发现了一个隐藏在 OpenBSD 中长达 27 年的漏洞,以及一个在 FFmpeg 中潜伏了 16 年的漏洞,并能针对这些漏洞自主编写复杂的攻击载荷。
考虑到这种网络安全能力的双刃剑性质,Anthropic 决定不向公众开放 Claude Mythos Preview 的普遍访问权限。该模型将仅提供给 Project Glasswing 的初始合作伙伴及其他约 40 个关键软件基础设施维护组织,用于防御性的安全扫描与修复工作。Anthropic 承诺为参与组织提供价值 1 亿美元的模型使用额度,并向开源安全组织直接捐赠 400 万美元。参与者后续可通过 API 访问该模型,输入和输出的定价分别为每百万词元 (Token) 25 美元和 125 美元。
(Anthropic)(Model Card)
4 月 8 日,智谱发布了最新的大语言模型 GLM-5.1,并基于 MIT 协议正式开源。该模型具备 7440 亿 (744B) 参数,激活参数为 400 亿 (40B)。
GLM-5.1 显著强化了编码与智能体 (Agent) 能力,在工程化任务中表现突出。在 SWE-Bench Pro 基准测试中,其得分达到 58.4,超过 GPT-5.4 与 Claude Opus 4.6,位列全球首位。在三个榜单的综合测试中也位列全球第三,开源第一。实际测试显示,GLM-5.1 具备长时间独立工作的能力,能够自主完成 Linux 桌面系统构建、向量搜索引擎优化及大规模模型加速代码编写等复杂工程任务。该模型目前已实现对华为昇腾、摩尔线程等七家国产芯片平台的全栈适配,并支持多种主流部署方案。
(智谱 AI)
#推广
💎 特别优惠:
Cubence 是一家稳定高效的 AI 服务中转平台,为 Claude Code、Codex、Gemini 等 AI 工具提供中转服务,有着不错的稳定性和性价比。
Cubence 为 CCH 的使用用户提供了特别的优惠折扣:在购买时使用优惠券
→ 立即访问
💎 特别优惠:
PackyCode 是一家稳定、高效的 API 中转服务商,提供 Claude Code、Codex、Gemini 等多种中转服务。
PackyCode 为本软件的用户提供了特别优惠,使用此链接注册并在充值时填写优惠码
→ 立即访问
💎 特别优惠:
YesCode 是一家低调务实的 AI API 中转服务商,专注于为开发者提供稳定可靠的 Claude、Codex、Gemini 等模型接入服务,以扎实的技术底蕴和持续稳定的服务质量赢得用户信赖。
通过此链接注册即可体验
→ 立即访问
💎 特别优惠:
SSSAiCode 是一家稳定可靠的 API 中转站,致力于提供稳定、可靠、平价的 Claude、CodeX 模型服务。
SSSAiCode 为本软件的用户提供特别优惠,使用此链接注册可长期享受每次 10$ 的购买奖励
→ 立即访问
💎 特别优惠:
AIGoCode 是一个集成了 Claude Code、Codex 以及 Gemini 最新模型的一站式平台,为你提供稳定、高效且高性价比的 AI 编程服务。提供灵活的订阅计划,可包月可套餐,零封号风险,国内直连,无需魔法,超大积分池,极速响应。
AIGoCode 为 CCH 的用户提供了特别福利,通过此链接注册的用户首次充值可以获得额外 10% 奖励额度
→ 立即访问
💎 特别优惠:
感谢 AICodeMirror 对本项目的赞助!AICodeMirror 提供 Claude Code / Codex / Gemini CLI 官方高稳定性中转服务,支持企业级并发、快速开票、7×24 小时专属技术支持。Claude Code / Codex / Gemini 官方渠道价格低至原价的 38% / 6% / 9%,充值还有额外折扣!针对 claude-code-hub 用户,AICodeMirror 特别推出福利:通过下方链接注册,首充立享 8 折 优惠;企业客户更可享受最高 7.5 折 折上折。
→ 立即访问
💎 特别优惠:
Cubence 是一家稳定高效的 AI 服务中转平台,为 Claude Code、Codex、Gemini 等 AI 工具提供中转服务,有着不错的稳定性和性价比。
Cubence 为 CCH 的使用用户提供了特别的优惠折扣:在购买时使用优惠券
DING113CCH,可享受 10% 优惠折扣。 → 立即访问
💎 特别优惠:
PackyCode 是一家稳定、高效的 API 中转服务商,提供 Claude Code、Codex、Gemini 等多种中转服务。
PackyCode 为本软件的用户提供了特别优惠,使用此链接注册并在充值时填写优惠码
WITHCCH,可享受 9 折优惠 → 立即访问
💎 特别优惠:
YesCode 是一家低调务实的 AI API 中转服务商,专注于为开发者提供稳定可靠的 Claude、Codex、Gemini 等模型接入服务,以扎实的技术底蕴和持续稳定的服务质量赢得用户信赖。
通过此链接注册即可体验
→ 立即访问
💎 特别优惠:
SSSAiCode 是一家稳定可靠的 API 中转站,致力于提供稳定、可靠、平价的 Claude、CodeX 模型服务。
SSSAiCode 为本软件的用户提供特别优惠,使用此链接注册可长期享受每次 10$ 的购买奖励
→ 立即访问
💎 特别优惠:
AIGoCode 是一个集成了 Claude Code、Codex 以及 Gemini 最新模型的一站式平台,为你提供稳定、高效且高性价比的 AI 编程服务。提供灵活的订阅计划,可包月可套餐,零封号风险,国内直连,无需魔法,超大积分池,极速响应。
AIGoCode 为 CCH 的用户提供了特别福利,通过此链接注册的用户首次充值可以获得额外 10% 奖励额度
→ 立即访问
💎 特别优惠:
感谢 AICodeMirror 对本项目的赞助!AICodeMirror 提供 Claude Code / Codex / Gemini CLI 官方高稳定性中转服务,支持企业级并发、快速开票、7×24 小时专属技术支持。Claude Code / Codex / Gemini 官方渠道价格低至原价的 38% / 6% / 9%,充值还有额外折扣!针对 claude-code-hub 用户,AICodeMirror 特别推出福利:通过下方链接注册,首充立享 8 折 优惠;企业客户更可享受最高 7.5 折 折上折。
→ 立即访问
4 月 2 日,Google DeepMind 正式发布新一代开源模型家族 Gemma 4,这是目前该系列中能力最强的版本。Gemma 4 基于与 Gemini 3 相同的研究技术构建,主打高级推理和智能体 (agentic) 工作流,在同参数量级模型中实现了领先的性能表现。
Gemma 4 共推出四个尺寸:Effective 2B (E2B)、Effective 4B (E4B)、26B 混合专家模型 (MoE) 和 31B 稠密模型 (Dense)。其中 31B 模型在 Arena AI 文本排行榜上位列开源模型第 3 名,26B 模型排名第 6,二者均超越了参数量达其 20 倍的竞争模型。26B MoE 模型在推理时仅激活 38 亿参数,侧重低延迟响应;31B Dense 模型则追求最高输出质量,适合作为微调基础。
在端侧部署方面,E2B 和 E4B 模型专为移动设备和物联网场景设计,可在手机、Raspberry Pi、NVIDIA Jetson Orin Nano 等设备上完全离线运行,实现接近零延迟的推理。Android 开发者可通过 AICore Developer Preview 立即开始原型开发,实现与未来 Gemini Nano 4 的前向兼容。
核心能力方面,Gemma 4 支持多步规划与深度逻辑推理、原生函数调用与结构化 JSON 输出、高质量离线代码生成,以及视频、图像、音频等多模态输入(音频输入仅限 E2B 和 E4B)。上下文窗口方面,边缘模型支持 128K 词元,大模型支持最高 256K 词元。此外,Gemma 4 原生支持超过 140 种语言。
值得关注的是,Gemma 4 采用了商业友好的 Apache 2.0 开源许可证。
(Google DeepMind)
3 月 31 日,有开发者发现 Anthropic 旗下 AI 编程智能体 Claude Code 的 v2.1.88 版本 NPM 发布包中包含了完整的 Source Map 文件 (cli.js.map)。该文件的 sourcesContent 字段保留了全部 TypeScript 源码,可通过简单脚本提取还原。
这是 Claude Code 第二次因相同原因发生源码泄露。2025 年 2 月 Claude Code 作为研究预览版首次发布时,就曾因 NPM 包中附带 Source Map 文件而导致源码外泄。Anthropic 当时迅速推送更新移除了 Source Map,并从 NPM Registry 下架了所有受影响的旧版本。此次事件发生后,Anthropic 启动了紧急撤包流程,NPM 上显示的最新版本已回退至 2.1.87。
与一年前相比,此次泄露的源码展示了大量新模块,包括多 Agent 协调模块 (coordinator/)、内部代号为「KAIROS」的助手模式 (assistant/)、语音交互模块 (voice/)、插件和技能系统 (plugins/、skills/),以及一个名为「buddy」的 AI 伴侣 UI 模块。目录结构还包含远程会话 (remote/)、Vim 模式 (vim/) 等组件,呈现出 Claude Code 从单一 CLI 工具向复合 Agent 平台演进的工程全貌。
值得注意的是,这并非 Anthropic 近期唯一的信息泄露事件。
3 月 26 日,Fortune 杂志报道称,Anthropic 因内容管理系统 (CMS) 配置错误,导致一份未发布的博客草稿被公开发现,其中提及了名为 Claude Mythos (亦称 Capybara) 的新模型。Anthropic 随后承认正在开发和测试该模型,称其代表了 AI 性能的「阶梯式跃升」(step change),是该公司迄今为止构建的最强模型。
(老冯云数)(源码备份)
axios 遭复杂供应链攻击
2026 年 3 月 31 日,安全机构 StepSecurity 发现,广泛使用的 JavaScript HTTP 客户端库 axios 在 npm 上被发布了两个恶意版本 (1.14.1 和 0.30.4),均通过被盗的首席维护者凭据发布,绕过了项目正常的 CI/CD 流程。
攻击者将维护者账号邮箱篡改为一个 ProtonMail 匿名地址,并利用该账号的长期有效 npm 访问令牌通过命令行手动发布。在此之前,攻击者已从另一个一次性账号预先发布了恶意依赖 plain-crypto-js@4.2.1,两个账号均使用 ProtonMail 注册,呈现一致的操作特征。
恶意版本相比安全版本,唯一的变化是在依赖列表中新增了 plain-crypto-js@4.2.1。当开发者执行 npm install 时,npm 会自动解析并安装该依赖,随即触发其 postinstall 脚本启动木马投放程序。
恶意软件采用了多种高级规避技术:运行时解混淆以隐藏真实意图,动态加载 fs、os、execSync 等敏感模块以绕过静态扫描,可直接在宿主系统上执行解码后的 shell 命令,并将载荷文件部署至系统临时目录和 Windows ProgramData 目录等敏感位置,执行完毕后自动删除或重命名自身文件以对抗取证分析。
axios 每周下载量达数千万次 (Socket 统计约 8300 万次),是 JavaScript 生态中使用最广泛的 HTTP 客户端之一,此次事件的潜在波及面极大。
开发者应立即排查项目依赖,可通过以下命令检查是否受到影响:
若确认安装了受影响版本,应视系统为已被入侵,将 axios 固定至安全版本 (1.14.0 或 0.30.3),轮换受影响机器上的所有密钥、API 密钥和凭据,并检查网络日志中是否存在指向已知 C2 域名或 IP 地址的出站连接。
(综合媒体报道)
2026 年 3 月 31 日,安全机构 StepSecurity 发现,广泛使用的 JavaScript HTTP 客户端库 axios 在 npm 上被发布了两个恶意版本 (1.14.1 和 0.30.4),均通过被盗的首席维护者凭据发布,绕过了项目正常的 CI/CD 流程。
攻击者将维护者账号邮箱篡改为一个 ProtonMail 匿名地址,并利用该账号的长期有效 npm 访问令牌通过命令行手动发布。在此之前,攻击者已从另一个一次性账号预先发布了恶意依赖 plain-crypto-js@4.2.1,两个账号均使用 ProtonMail 注册,呈现一致的操作特征。
恶意版本相比安全版本,唯一的变化是在依赖列表中新增了 plain-crypto-js@4.2.1。当开发者执行 npm install 时,npm 会自动解析并安装该依赖,随即触发其 postinstall 脚本启动木马投放程序。
恶意软件采用了多种高级规避技术:运行时解混淆以隐藏真实意图,动态加载 fs、os、execSync 等敏感模块以绕过静态扫描,可直接在宿主系统上执行解码后的 shell 命令,并将载荷文件部署至系统临时目录和 Windows ProgramData 目录等敏感位置,执行完毕后自动删除或重命名自身文件以对抗取证分析。
axios 每周下载量达数千万次 (Socket 统计约 8300 万次),是 JavaScript 生态中使用最广泛的 HTTP 客户端之一,此次事件的潜在波及面极大。
开发者应立即排查项目依赖,可通过以下命令检查是否受到影响:
npm ls axios plain-crypto-js
若确认安装了受影响版本,应视系统为已被入侵,将 axios 固定至安全版本 (1.14.0 或 0.30.3),轮换受影响机器上的所有密钥、API 密钥和凭据,并检查网络日志中是否存在指向已知 C2 域名或 IP 地址的出站连接。
(综合媒体报道)
阿里推出 Qwen3.6 Plus Preview 和 Qwen3.5-Omni 系列大模型
阿里 Qwen 团队在 OpenRouter 平台正式上线了 Qwen3.6 Plus Preview 模型。该模型作为 Qwen Plus 系列的下一代演进版本,采用先进的混合架构以提升效率与可扩展性。其支持高达 1,000,000 token 的上下文窗口以及最大 65,536 tokens 的输出。
模型预览期间,开发者可以在 OpenRouter、OpenCode 和 Kilo Code 等平台和工具免费调用该模型。
与此同时,阿里 Qwen 正式发布了新一代全模态大模型 Qwen3.5-Omni 系列,包含 Plus、Flash 和 Light 三种尺寸。该模型原生实现了对文本、图片、音频及音视频的统一理解,同时支持超长音视频输入、音色克隆、智能语义打断以及 113 种语种和方言的语音交互。
目前,企业及开发者已可通过 Qwen Chat、阿里云百炼 API 进行体验和集成。
(橘鸦 Juya)
阿里 Qwen 团队在 OpenRouter 平台正式上线了 Qwen3.6 Plus Preview 模型。该模型作为 Qwen Plus 系列的下一代演进版本,采用先进的混合架构以提升效率与可扩展性。其支持高达 1,000,000 token 的上下文窗口以及最大 65,536 tokens 的输出。
模型预览期间,开发者可以在 OpenRouter、OpenCode 和 Kilo Code 等平台和工具免费调用该模型。
与此同时,阿里 Qwen 正式发布了新一代全模态大模型 Qwen3.5-Omni 系列,包含 Plus、Flash 和 Light 三种尺寸。该模型原生实现了对文本、图片、音频及音视频的统一理解,同时支持超长音视频输入、音色克隆、智能语义打断以及 113 种语种和方言的语音交互。
目前,企业及开发者已可通过 Qwen Chat、阿里云百炼 API 进行体验和集成。
(橘鸦 Juya)
3 月 31 日凌晨,部分国行 iPhone 用户在升级至 iOS 26.4 后,发现系统设置中出现了「Apple 智能与 Siri」入口,一度引发苹果 AI 功能正在进行灰度测试的猜测。
彭博社记者 Mark Gurman 随后确认,此次推送属于意外,苹果目前尚未获得中国监管部门的批准,也没有即将上线的计划,相关功能已被撤回。Gurman 还指出,苹果不会在没有正式公告的情况下在中国推出该功能,也不会选择在当地时间凌晨上线。
在 Apple 智能短暂可用期间,用户实测发现该功能并未完全开发就绪:「视觉智能」依旧使用 Google 搜索方案,「GPT 扩展」按钮虽存在但无法激活。不过,实时翻译、照片消除、协作工具、智绘表情 (Genmoji) 和图乐园 (Image Playground) 等大部分功能可正常使用。
值得注意的是,此前有媒体报道称 Apple 智能使用了百度文心大模型,但这是一个误传——相关截图中的回答实际来自 Siri 调用百度搜索的结果,旧版 Siri 同样能获取到相同答案。根据此前的报道,Apple 智能在中国将依托阿里巴巴的通义千问 (Qwen) 模型来满足监管要求。
Gurman 今年早些时候还曾透露,苹果计划同时与阿里巴巴和百度合作推进中国市场的 AI 布局:阿里巴巴负责调整和审核苹果端侧模型的内容以符合中国法规,百度则为「视觉智能」功能提供支持。
中国目前仍是全球最后一个尚未上线 Apple 智能的主要市场。截至目前,苹果官方尚未对此次事件做出正式回应。