起于小站,终于生活。
现实之外,一个普通人的思考。

博客地址:ygxz.in
讨论组:https://t.me/ygxz_group
Xiaomi MiMo-V2.5 系列大模型开启公测

Xiaomi 发布了 MiMo-V2.5 系列大模型,包含 MiMo-V2.5、MiMo-V2.5-Pro、MiMo-V2.5-TTS Series 和 MiMo-V2.5-ASR 四款模型。官方表示本次更新实现了模型从能用到好用的全面跨越,重点提升了推理能力、智能体 (Agent) 稳定性、上下文长度以及全模态感知与理解。

MiMo-V2.5-Pro 主打通用智能体能力、复杂软件工程和长程任务。MiMo-V2.5 则具备百万上下文窗口。在同等评测分数下,Pro 版本比 Kimi K2.6 节省了 42% 的词元,标准版比 Muse Spark 节省了 50%。

小米还宣布, MiMo-V2.5-Pro 和 MiMo-V2.5 模型即将全球开源。

Xiaomi MiMo
一个小站的自留地
DeepSeek 新模型已经可以在 DeepSeek 官网或手机端使用,1M 上下文,不支持多模态,知识截止日期到 2025 年 5 月。 —————— 深度求索客服称,「DeepSeek 网页/ APP 正在测试新的长文本模型结构,支持 1M 上下文。 注意:API 服务不变,仍为 V3.2,仅支持 128K 上下文。 感谢各位的持续关注~祝新年快乐」
有用户发现,DeepSeek 的官方 API 疑似更新了模型版本,模型现在会回答「知识截止日期是 2025 年 5 月,上下文长度可以达到 1M」等信息,与先前官网提供的长上下文测试模型能力一致。

另有消息称,DeepSeek 可能会在本周四公开新模型。而根据市场预测,OpenAI 也将在本周四发布 gpt-5.5 模型。
一个小站的自留地
OpenAI 的最新图像生成模型 GPT Image 2 据称已在 ChatGPT 全量上线。包含 Free 账户在内的大多数账户都已可用。该模型显著增强了复杂场景、文字生成、UI 生成场景的性能,也解决了前代的偏色问题。 OpenAI 将于今晚直播发布会。
OpenAI 发布 ChatGPT Images 2.0

OpenAI 发布全新图像生成模型 ChatGPT Images 2.0,Sam Altman 称此更新「就像从 GPT-3 一步跳到了 GPT-5」。该模型首次引入 Thinking 能力,提供 Instant 与 Thinking 两种生成模式。Instant 模式已向所有用户开放,覆盖 ChatGPT、Codex 及 API 入口,主打快速响应;Thinking 模式则需 Plus、Pro 或 Business 订阅,可在生成前实时联网搜索、规划图像结构并执行自我核查,单次提示最多输出 8 张保持角色与对象连贯性的图像。

新模型的指令跟随精度大幅提升,支持复杂构图、小号文字、图标及 UI 元素,API 端最高支持 2 K 分辨率。其多语言文本渲染能力显著改善,对中文、日文、韩文等非拉丁文字的排版尤为准确。模型知识截止于 2025 年 12 月,在生成信息图、教育图表等内容时具备更好的时效性。此外,它支持 3:1 至 1:3 的灵活宽高比,并已直接集成至 Codex 工作区。

在大模型竞技场(Chatbot Arena)中,ChatGPT Images 2.0 已登顶图像生成榜单,并在文本到图像任务中领先第二名 Nano Banana 2 达 240 分。目前,Canva、Figma、Adobe 与 OpenArt 已宣布接入 gpt-image-2 API,开发者无需离开现有工作流即可直接调用。

(综合媒体报道)
一个小站的自留地
月之暗面通过邮件宣布,K2.6-code-preview 新模型即将全量推出。 此前,月之暗面通过 Kimi Code 抢先体验计划向部分用户开放了该模型的访问权限。
Kimi K2.6 开源发布

月之暗面 (Moonshot AI) 发布并开源了最新模型 Kimi K2.6,主打编程、长时程任务执行和智能体集群 (Agent Swarm) 能力。该模型现已通过 Kimi.com、Kimi App、API 及 Kimi Code 提供使用。

在编程能力方面,Kimi K2.6 在 SWE-Bench Pro 上得分 58.6,超过 GPT-5.4 的 57.7 和 Claude Opus 4.6 的 53.4;Terminal-Bench 2.0 得分 66.7,与 GPT-5.4 和 Claude Opus 4.6 的 65.4 持平;SWE-Bench Multilingual 得分 76.7,接近 Claude Opus 4.6 的 77.8。不过在 SciCode (52.2 vs 58.9)、OJBench (60.6 vs 70.7)、LiveCodeBench v6 (89.6 vs 91.7) 等基准上,Gemini 3.1 Pro 仍保持领先。

在通用智能体基准上,Kimi K2.6 在 Humanity's Last Exam (带工具) 上以 54.0 领先 GPT-5.4 的 52.1 和 Claude Opus 4.6 的 53.0;DeepSearchQA F1 得分 92.5,大幅领先 GPT-5.4 的 78.6。但在 BrowseComp 上 Gemini 3.1 Pro 以 85.9 领先 Kimi K2.6 的 83.2,Toolathlon 上 GPT-5.4 以 54.6 领先 Kimi K2.6 的 50.0。在推理与知识类基准上,Kimi K2.6 与头部模型仍有差距,如 HLE-Full 得分 34.7,低于 Gemini 3.1 Pro 的 44.4 和 Claude Opus 4.6 的 40.0。

多家企业在测试评价中给予正面反馈。Vercel 表示 K2.6 在其 Next.js 基准上相比 K2.5 提升超过 50%,跻身平台表现最佳的模型之列;CodeBuddy 的内部评估显示代码生成准确率提升 12%,长上下文稳定性提升 18%,工具调用成功率达 96.60%。Ollama 也表示 K2.6 将开箱支持其所有集成。

Kimi
一个小站的自留地
阿里推出  Qwen3.6 Plus Preview  和 Qwen3.5-Omni  系列大模型 阿里 Qwen 团队在 OpenRouter 平台正式上线了  Qwen3.6 Plus Preview  模型。该模型作为  Qwen Plus  系列的下一代演进版本,采用先进的混合架构以提升效率与可扩展性。其支持高达  1,000,000 token 的上下文窗口以及最大  65,536 tokens 的输出。 模型预览期间,开发者可以在 OpenRouter、OpenCode 和 Kilo Code…
通义千问发布下一代旗舰模型早期预览版 Qwen3.6-Max-Preview

继 Qwen3.6-Plus 之后,阿里云通义千问团队发布了下一代旗舰模型的早期预览版 Qwen3.6-Max-Preview。官方表示,该模型在智能体编程、世界知识和指令遵循三个方面相比 Qwen3.6-Plus 均有显著提升。

在智能体编程方面,Qwen3.6-Max-Preview 在六项主要编程基准上取得最高分,包括 SWE-bench Pro (57.3)、Terminal-Bench 2.0 (65.4)、SkillsBench (55.6)、SciCode (47.0) 等,相比 Qwen3.6-Plus 分别提升了约 0.7、3.8、9.9、10.8 个百分点。在世界知识方面,SuperGPQA 得分达到 73.9,QwenChineseBench 达到 84.0,分别提升 2.3 和 5.3。指令遵循基准 ToolcallFormatIFBench 得分 86.1,提升 2.8。

从评测图表来看,对比模型还包括 Qwen 3.5 Plus、Claude 4.5 Opus 和 GLM 5.1。Qwen3.6-Max-Preview 在多数基准上领先,但在 SWE-bench Pro 上 GLM 5.1 以 58.4 略高于其 57.3,QwenWebBench 上 GLM 5.1 以 1558 的 Elo 评分也略高于其 1532。

用户目前可通过 Qwen Studio (chat.qwen.ai) 体验该模型,后续将通过阿里云百炼 API 以「qwen3.6-max-preview」的名称提供调用。本次发布还支持 preserve_thinking 功能,可在多轮对话中保留前序轮次的思维内容,官方推荐将其用于智能体任务。

通义千问
一个小站的自留地
据财联社,Anthropic 正准备发布下一代旗舰模型 Claude Opus 4.7,以及一款用于设计网站和演示文稿的新型 AI 工具。这些新产品最早可能在本周发布。
Anthropic 正式发布 Claude Opus 4.7

Anthropic 宣布其最新模型 Claude Opus 4.7 现已全面可用。

Opus 4.7 的视觉分辨率支持得到大幅加强,可识别长边高达 2576 像素(约 375 万像素)的图像,为此前型号的三倍以上。此外,新模型在处理专业任务时具备更出色的设计品味与创造力,能生成更高质量的界面、幻灯片和文档。

Opus 4.7 搭载了自动检测和拦截高风险网络安全请求的防护机制。Anthropic 明确表示,为进行风险控制,该模型的网络安全能力刻意保持在低于 Claude Mythos Preview 的水平。

目前,Claude Opus 4.7 已在所有 Claude 产品及其 API、Amazon Bedrock、Google Cloud 的 Vertex AI 以及 Microsoft Foundry 上线。定价与 Opus 4.6 保持一致,为每百万输入词元 (Token) 5 美元,每百万输出词元 25 美元。

伴随模型发布,Anthropic 还推出了多项更新。模型引入了介于 high 和 max 之间的新工作量控制 (Effort level) 级别 xhigh;在 API 中公开测试任务预算 (Task budgets) 功能,方便开发者控制较长任务的词元消耗。此外,Claude Code 新增了 /ultrareview 命令用于深度代码审查,并将自动模式 (Auto mode) 的适用范围扩展至 Max 用户。值得注意的是,Opus 4.7 采用了更新的分词器 (Tokenizer) ,相同输入的词元消耗量将变为原来的 1.0 至 1.35 倍。

Anthropic
一个小站的自留地
据未经证实的消息,Anthropic 即将发布 Claude 4.7 系列模型。
据财联社,Anthropic 正准备发布下一代旗舰模型 Claude Opus 4.7,以及一款用于设计网站和演示文稿的新型 AI 工具。这些新产品最早可能在本周发布。
一个小站的自留地
Anthropic  正式发布  Claude Sonnet 4.6 Anthropic  正式发布  Claude Sonnet 4.6,官方称其为迄今最强的  Sonnet  模型。该模型在编程、长上下文推理、Agent  规划、知识工作及设计等领域全面升级,并提供支持  100 万  token 的上下文窗口(Beta 版)。价格维持每百万 token 输入  3  美元、输出  15  美元不变。 在编程方面,根据  Claude Code  的早期测试,约  70%  的开发者更偏好  Sonnet…
Anthropic 联合多家科技巨头发起 Project Glasswing 计划,发布 Claude Mythos Preview 模型

4 月 7 日,Anthropic 宣布推出 Project Glasswing 计划。该计划联合了 Amazon、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、Microsoft、NVIDIA 和 Palo Alto Networks 等机构,旨在保护全球关键软件基础设施的安全。

作为该计划的核心,Anthropic 揭晓了其最新训练的前沿大语言模型 Claude Mythos Preview。该模型展现出了极强的网络安全能力,在过去几周的测试中发现了数千个高危的零日漏洞,涵盖了所有主流操作系统和网络浏览器。例如,它发现了一个隐藏在 OpenBSD 中长达 27 年的漏洞,以及一个在 FFmpeg 中潜伏了 16 年的漏洞,并能针对这些漏洞自主编写复杂的攻击载荷。

考虑到这种网络安全能力的双刃剑性质,Anthropic 决定不向公众开放 Claude Mythos Preview 的普遍访问权限。该模型将仅提供给 Project Glasswing 的初始合作伙伴及其他约 40 个关键软件基础设施维护组织,用于防御性的安全扫描与修复工作。Anthropic 承诺为参与组织提供价值 1 亿美元的模型使用额度,并向开源安全组织直接捐赠 400 万美元。参与者后续可通过 API 访问该模型,输入和输出的定价分别为每百万词元 (Token) 25 美元和 125 美元。

Anthropic)(Model Card
一个小站的自留地
GLM-5.1 现已面向 GLM Coding Plan 全部用户 (Lite/Pro/Max) 开放。
智谱发布 GLM-5.1

4 月 8 日,智谱发布了最新的大语言模型 GLM-5.1,并基于 MIT 协议正式开源。该模型具备 7440 亿 (744B) 参数,激活参数为 400 亿 (40B)。

GLM-5.1 显著强化了编码与智能体 (Agent) 能力,在工程化任务中表现突出。在 SWE-Bench Pro 基准测试中,其得分达到 58.4,超过 GPT-5.4 与 Claude Opus 4.6,位列全球首位。在三个榜单的综合测试中也位列全球第三,开源第一。实际测试显示,GLM-5.1 具备长时间独立工作的能力,能够自主完成 Linux 桌面系统构建、向量搜索引擎优化及大规模模型加速代码编写等复杂工程任务。该模型目前已实现对华为昇腾、摩尔线程等七家国产芯片平台的全栈适配,并支持多种主流部署方案。

智谱 AI
#推广

💎 特别优惠:
Cubence 是一家稳定高效的 AI 服务中转平台,为 Claude Code、Codex、Gemini 等 AI 工具提供中转服务,有着不错的稳定性和性价比。
Cubence 为 CCH 的使用用户提供了特别的优惠折扣:在购买时使用优惠券 DING113CCH,可享受 10% 优惠折扣。
立即访问

💎 特别优惠:
PackyCode 是一家稳定、高效的 API 中转服务商,提供 Claude Code、Codex、Gemini 等多种中转服务。
PackyCode 为本软件的用户提供了特别优惠,使用此链接注册并在充值时填写优惠码 WITHCCH,可享受 9 折优惠
立即访问

💎 特别优惠:
YesCode 是一家低调务实的 AI API 中转服务商,专注于为开发者提供稳定可靠的 Claude、Codex、Gemini 等模型接入服务,以扎实的技术底蕴和持续稳定的服务质量赢得用户信赖。
通过此链接注册即可体验
立即访问

💎 特别优惠:
SSSAiCode 是一家稳定可靠的 API 中转站,致力于提供稳定、可靠、平价的 Claude、CodeX 模型服务。
SSSAiCode 为本软件的用户提供特别优惠,使用此链接注册可长期享受每次 10$ 的购买奖励
立即访问

💎 特别优惠:
AIGoCode 是一个集成了 Claude Code、Codex 以及 Gemini 最新模型的一站式平台,为你提供稳定、高效且高性价比的 AI 编程服务。提供灵活的订阅计划,可包月可套餐,零封号风险,国内直连,无需魔法,超大积分池,极速响应。
AIGoCode 为 CCH 的用户提供了特别福利,通过此链接注册的用户首次充值可以获得额外 10% 奖励额度
立即访问

💎 特别优惠:
感谢 AICodeMirror 对本项目的赞助!AICodeMirror 提供 Claude Code / Codex / Gemini CLI 官方高稳定性中转服务,支持企业级并发、快速开票、7×24 小时专属技术支持。Claude Code / Codex / Gemini 官方渠道价格低至原价的 38% / 6% / 9%,充值还有额外折扣!针对 claude-code-hub 用户,AICodeMirror 特别推出福利:通过下方链接注册,首充立享 8 折 优惠;企业客户更可享受最高 7.5 折 折上折。
立即访问
一个小站的自留地
谷歌发布轻量级开源大语言模型 Gemma 3 270M Gemma 3 是 Google 推出的轻量级多模态开源大模型家族,延续 Gemini 技术,支持文本与图像输入(最高 128K 上下文),覆盖 140+ 语言,适用于问答、摘要、推理等任务。 新发布的 Gemma 3 270M 在端侧推理场景,取得了超越 Qwen3 0.5B 的成绩。 (Google)
Google DeepMind 发布 Gemma 4 开源模型家族,采用 Apache 2.0 许可证

4 月 2 日,Google DeepMind 正式发布新一代开源模型家族 Gemma 4,这是目前该系列中能力最强的版本。Gemma 4 基于与 Gemini 3 相同的研究技术构建,主打高级推理和智能体 (agentic) 工作流,在同参数量级模型中实现了领先的性能表现。

Gemma 4 共推出四个尺寸:Effective 2B (E2B)、Effective 4B (E4B)、26B 混合专家模型 (MoE) 和 31B 稠密模型 (Dense)。其中 31B 模型在 Arena AI 文本排行榜上位列开源模型第 3 名,26B 模型排名第 6,二者均超越了参数量达其 20 倍的竞争模型。26B MoE 模型在推理时仅激活 38 亿参数,侧重低延迟响应;31B Dense 模型则追求最高输出质量,适合作为微调基础。

在端侧部署方面,E2B 和 E4B 模型专为移动设备和物联网场景设计,可在手机、Raspberry Pi、NVIDIA Jetson Orin Nano 等设备上完全离线运行,实现接近零延迟的推理。Android 开发者可通过 AICore Developer Preview 立即开始原型开发,实现与未来 Gemini Nano 4 的前向兼容。

核心能力方面,Gemma 4 支持多步规划与深度逻辑推理、原生函数调用与结构化 JSON 输出、高质量离线代码生成,以及视频、图像、音频等多模态输入(音频输入仅限 E2B 和 E4B)。上下文窗口方面,边缘模型支持 128K 词元,大模型支持最高 256K 词元。此外,Gemma 4 原生支持超过 140 种语言。

值得关注的是,Gemma 4 采用了商业友好的 Apache 2.0 开源许可证。

Google DeepMind
一个小站的自留地
Anthropic 宣布调整 Claude 免费版、Pro 版和 Max 版订阅用户的会话限制机制。虽然每周总额度保持不变,但在工作日高峰时段(太平洋时间 5:00–11:00,对应北京时间 21:00 至次日 03:00),用户的 5 小时会话配额将以更快速度消耗。 Anthropic 产品负责人 Thariq 表示 ,公司已通过效率优化抵消部分影响,但仍有约 7% 的用户会触及此前不会遇到的会话限制,尤其是 Pro 版用户。他建议用户将占用大量 token 的后台任务转移到非高峰时段运行,以延长会话限制。此举旨在应对…
Claude Code 源码因 Source Map 配置疏漏再次泄露

3 月 31 日,有开发者发现 Anthropic 旗下 AI 编程智能体 Claude Code 的 v2.1.88 版本 NPM 发布包中包含了完整的 Source Map 文件 (cli.js.map)。该文件的 sourcesContent 字段保留了全部 TypeScript 源码,可通过简单脚本提取还原。

这是 Claude Code 第二次因相同原因发生源码泄露。2025 年 2 月 Claude Code 作为研究预览版首次发布时,就曾因 NPM 包中附带 Source Map 文件而导致源码外泄。Anthropic 当时迅速推送更新移除了 Source Map,并从 NPM Registry 下架了所有受影响的旧版本。此次事件发生后,Anthropic 启动了紧急撤包流程,NPM 上显示的最新版本已回退至 2.1.87。

与一年前相比,此次泄露的源码展示了大量新模块,包括多 Agent 协调模块 (coordinator/)、内部代号为「KAIROS」的助手模式 (assistant/)、语音交互模块 (voice/)、插件和技能系统 (plugins/、skills/),以及一个名为「buddy」的 AI 伴侣 UI 模块。目录结构还包含远程会话 (remote/)、Vim 模式 (vim/) 等组件,呈现出 Claude Code 从单一 CLI 工具向复合 Agent 平台演进的工程全貌。

值得注意的是,这并非 Anthropic 近期唯一的信息泄露事件。

3 月 26 日,Fortune 杂志报道称,Anthropic 因内容管理系统 (CMS) 配置错误,导致一份未发布的博客草稿被公开发现,其中提及了名为 Claude Mythos (亦称 Capybara) 的新模型。Anthropic 随后承认正在开发和测试该模型,称其代表了 AI 性能的「阶梯式跃升」(step change),是该公司迄今为止构建的最强模型。

老冯云数)(源码备份
一个小站的自留地
LiteLLM 仓库遭受供应链攻击 LLM 代理工具 LiteLLM 遭受名为 TeamPCP 的威胁行为者发起的供应链攻击。攻击者在 Python 软件包索引 (Python Package Index, PyPI) 发布了包含信息窃取程序的 1.82.7 和 1.82.8 恶意版本,上述版本在暴露约 3 小时后被官方隔离。 攻击者首先利用外泄的个人访问令牌 (Personal Access Token, PAT) ,在开发商 BerriAI 的 GitHub 仓库中推送了恶意的 GitHub Actions…
axios 遭复杂供应链攻击

2026 年 3 月 31 日,安全机构 StepSecurity 发现,广泛使用的 JavaScript HTTP 客户端库 axios 在 npm 上被发布了两个恶意版本 (1.14.1 和 0.30.4),均通过被盗的首席维护者凭据发布,绕过了项目正常的 CI/CD 流程。

攻击者将维护者账号邮箱篡改为一个 ProtonMail 匿名地址,并利用该账号的长期有效 npm 访问令牌通过命令行手动发布。在此之前,攻击者已从另一个一次性账号预先发布了恶意依赖 plain-crypto-js@4.2.1,两个账号均使用 ProtonMail 注册,呈现一致的操作特征。

恶意版本相比安全版本,唯一的变化是在依赖列表中新增了 plain-crypto-js@4.2.1。当开发者执行 npm install 时,npm 会自动解析并安装该依赖,随即触发其 postinstall 脚本启动木马投放程序。

恶意软件采用了多种高级规避技术:运行时解混淆以隐藏真实意图,动态加载 fs、os、execSync 等敏感模块以绕过静态扫描,可直接在宿主系统上执行解码后的 shell 命令,并将载荷文件部署至系统临时目录和 Windows ProgramData 目录等敏感位置,执行完毕后自动删除或重命名自身文件以对抗取证分析。

axios 每周下载量达数千万次 (Socket 统计约 8300 万次),是 JavaScript 生态中使用最广泛的 HTTP 客户端之一,此次事件的潜在波及面极大。

开发者应立即排查项目依赖,可通过以下命令检查是否受到影响:
npm ls axios plain-crypto-js


若确认安装了受影响版本,应视系统为已被入侵,将 axios 固定至安全版本 (1.14.0 或 0.30.3),轮换受影响机器上的所有密钥、API 密钥和凭据,并检查网络日志中是否存在指向已知 C2 域名或 IP 地址的出站连接。

(综合媒体报道)
一个小站的自留地
继旗舰模型 Qwen3.5-397B-A17B 首次开源后,Qwen 团队新增发布三款模型: Qwen3.5-122B-A10B、 Qwen3.5-27B (Dense) 与 Qwen3.5-35B-A3B 。上述模型均已在 GitHub、Hugging Face 及魔搭社区提供下载,供研究与微调使用。 同时,与 Qwen3.5-35B-A3B 对齐的托管生产版本 Qwen3.5-Flash API 已正式上线阿里云百炼平台。该版本默认支持 100 万词元 (Token) 的上下文长度,并内置了官方原生…
阿里推出  Qwen3.6 Plus Preview  和 Qwen3.5-Omni  系列大模型

阿里 Qwen 团队在 OpenRouter 平台正式上线了  Qwen3.6 Plus Preview  模型。该模型作为  Qwen Plus  系列的下一代演进版本,采用先进的混合架构以提升效率与可扩展性。其支持高达  1,000,000 token 的上下文窗口以及最大  65,536 tokens 的输出。

模型预览期间,开发者可以在 OpenRouter、OpenCode 和 Kilo Code 等平台和工具免费调用该模型。

与此同时,阿里 Qwen 正式发布了新一代全模态大模型  Qwen3.5-Omni  系列,包含  Plus、Flash  和  Light  三种尺寸。该模型原生实现了对文本、图片、音频及音视频的统一理解,同时支持超长音视频输入、音色克隆、智能语义打断以及  113  种语种和方言的语音交互。

目前,企业及开发者已可通过  Qwen Chat、阿里云百炼 API 进行体验和集成。

(橘鸦 Juya)
一个小站的自留地
Gemini 将成为 Apple Intelligence 基础模型 当地时间 2026 年 1 月 12 日,Apple 与 Google 发布联合声明,确认双方达成多年期合作:下一代 Apple 基础模型将基于 Google 的 Gemini 模型与云技术构建,并用于驱动未来 Apple Intelligence 功能,包括今年上线更个性化的 Siri。 Reuters 报道称,Apple 将在今年晚些时候推出改版后的 Siri,并引入 Gemini 模型能力。这也让 Gemini 获得新的系统级分发入口:Apple…
Apple 智能凌晨意外推送国行机型,功能已被撤回

3 月 31 日凌晨,部分国行 iPhone 用户在升级至 iOS 26.4 后,发现系统设置中出现了「Apple 智能与 Siri」入口,一度引发苹果 AI 功能正在进行灰度测试的猜测。

彭博社记者 Mark Gurman 随后确认,此次推送属于意外,苹果目前尚未获得中国监管部门的批准,也没有即将上线的计划,相关功能已被撤回。Gurman 还指出,苹果不会在没有正式公告的情况下在中国推出该功能,也不会选择在当地时间凌晨上线。

在 Apple 智能短暂可用期间,用户实测发现该功能并未完全开发就绪:「视觉智能」依旧使用 Google 搜索方案,「GPT 扩展」按钮虽存在但无法激活。不过,实时翻译、照片消除、协作工具、智绘表情 (Genmoji) 和图乐园 (Image Playground) 等大部分功能可正常使用。

值得注意的是,此前有媒体报道称 Apple 智能使用了百度文心大模型,但这是一个误传——相关截图中的回答实际来自 Siri 调用百度搜索的结果,旧版 Siri 同样能获取到相同答案。根据此前的报道,Apple 智能在中国将依托阿里巴巴的通义千问 (Qwen) 模型来满足监管要求。

Gurman 今年早些时候还曾透露,苹果计划同时与阿里巴巴和百度合作推进中国市场的 AI 布局:阿里巴巴负责调整和审核苹果端侧模型的内容以符合中国法规,百度则为「视觉智能」功能提供支持。

中国目前仍是全球最后一个尚未上线 Apple 智能的主要市场。截至目前,苹果官方尚未对此次事件做出正式回应。
Back to Top