起于小站,终于生活。
现实之外,一个普通人的思考。

博客地址:ygxz.in
讨论组:https://t.me/ygxz_group
一个小站的自留地
Anthropic  正式发布  Claude Sonnet 4.6 Anthropic  正式发布  Claude Sonnet 4.6,官方称其为迄今最强的  Sonnet  模型。该模型在编程、长上下文推理、Agent  规划、知识工作及设计等领域全面升级,并提供支持  100 万  token 的上下文窗口(Beta 版)。价格维持每百万 token 输入  3  美元、输出  15  美元不变。 在编程方面,根据  Claude Code  的早期测试,约  70%  的开发者更偏好  Sonnet…
Anthropic 联合多家科技巨头发起 Project Glasswing 计划,发布 Claude Mythos Preview 模型

4 月 7 日,Anthropic 宣布推出 Project Glasswing 计划。该计划联合了 Amazon、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、Microsoft、NVIDIA 和 Palo Alto Networks 等机构,旨在保护全球关键软件基础设施的安全。

作为该计划的核心,Anthropic 揭晓了其最新训练的前沿大语言模型 Claude Mythos Preview。该模型展现出了极强的网络安全能力,在过去几周的测试中发现了数千个高危的零日漏洞,涵盖了所有主流操作系统和网络浏览器。例如,它发现了一个隐藏在 OpenBSD 中长达 27 年的漏洞,以及一个在 FFmpeg 中潜伏了 16 年的漏洞,并能针对这些漏洞自主编写复杂的攻击载荷。

考虑到这种网络安全能力的双刃剑性质,Anthropic 决定不向公众开放 Claude Mythos Preview 的普遍访问权限。该模型将仅提供给 Project Glasswing 的初始合作伙伴及其他约 40 个关键软件基础设施维护组织,用于防御性的安全扫描与修复工作。Anthropic 承诺为参与组织提供价值 1 亿美元的模型使用额度,并向开源安全组织直接捐赠 400 万美元。参与者后续可通过 API 访问该模型,输入和输出的定价分别为每百万词元 (Token) 25 美元和 125 美元。

Anthropic)(Model Card
一个小站的自留地
GLM-5.1 现已面向 GLM Coding Plan 全部用户 (Lite/Pro/Max) 开放。
智谱发布 GLM-5.1

4 月 8 日,智谱发布了最新的大语言模型 GLM-5.1,并基于 MIT 协议正式开源。该模型具备 7440 亿 (744B) 参数,激活参数为 400 亿 (40B)。

GLM-5.1 显著强化了编码与智能体 (Agent) 能力,在工程化任务中表现突出。在 SWE-Bench Pro 基准测试中,其得分达到 58.4,超过 GPT-5.4 与 Claude Opus 4.6,位列全球首位。在三个榜单的综合测试中也位列全球第三,开源第一。实际测试显示,GLM-5.1 具备长时间独立工作的能力,能够自主完成 Linux 桌面系统构建、向量搜索引擎优化及大规模模型加速代码编写等复杂工程任务。该模型目前已实现对华为昇腾、摩尔线程等七家国产芯片平台的全栈适配,并支持多种主流部署方案。

智谱 AI
#推广

💎 特别优惠:
Cubence 是一家稳定高效的 AI 服务中转平台,为 Claude Code、Codex、Gemini 等 AI 工具提供中转服务,有着不错的稳定性和性价比。
Cubence 为 CCH 的使用用户提供了特别的优惠折扣:在购买时使用优惠券 DING113CCH,可享受 10% 优惠折扣。
立即访问

💎 特别优惠:
PackyCode 是一家稳定、高效的 API 中转服务商,提供 Claude Code、Codex、Gemini 等多种中转服务。
PackyCode 为本软件的用户提供了特别优惠,使用此链接注册并在充值时填写优惠码 WITHCCH,可享受 9 折优惠
立即访问

💎 特别优惠:
YesCode 是一家低调务实的 AI API 中转服务商,专注于为开发者提供稳定可靠的 Claude、Codex、Gemini 等模型接入服务,以扎实的技术底蕴和持续稳定的服务质量赢得用户信赖。
通过此链接注册即可体验
立即访问

💎 特别优惠:
SSSAiCode 是一家稳定可靠的 API 中转站,致力于提供稳定、可靠、平价的 Claude、CodeX 模型服务。
SSSAiCode 为本软件的用户提供特别优惠,使用此链接注册可长期享受每次 10$ 的购买奖励
立即访问

💎 特别优惠:
AIGoCode 是一个集成了 Claude Code、Codex 以及 Gemini 最新模型的一站式平台,为你提供稳定、高效且高性价比的 AI 编程服务。提供灵活的订阅计划,可包月可套餐,零封号风险,国内直连,无需魔法,超大积分池,极速响应。
AIGoCode 为 CCH 的用户提供了特别福利,通过此链接注册的用户首次充值可以获得额外 10% 奖励额度
立即访问

💎 特别优惠:
感谢 AICodeMirror 对本项目的赞助!AICodeMirror 提供 Claude Code / Codex / Gemini CLI 官方高稳定性中转服务,支持企业级并发、快速开票、7×24 小时专属技术支持。Claude Code / Codex / Gemini 官方渠道价格低至原价的 38% / 6% / 9%,充值还有额外折扣!针对 claude-code-hub 用户,AICodeMirror 特别推出福利:通过下方链接注册,首充立享 8 折 优惠;企业客户更可享受最高 7.5 折 折上折。
立即访问
一个小站的自留地
谷歌发布轻量级开源大语言模型 Gemma 3 270M Gemma 3 是 Google 推出的轻量级多模态开源大模型家族,延续 Gemini 技术,支持文本与图像输入(最高 128K 上下文),覆盖 140+ 语言,适用于问答、摘要、推理等任务。 新发布的 Gemma 3 270M 在端侧推理场景,取得了超越 Qwen3 0.5B 的成绩。 (Google)
Google DeepMind 发布 Gemma 4 开源模型家族,采用 Apache 2.0 许可证

4 月 2 日,Google DeepMind 正式发布新一代开源模型家族 Gemma 4,这是目前该系列中能力最强的版本。Gemma 4 基于与 Gemini 3 相同的研究技术构建,主打高级推理和智能体 (agentic) 工作流,在同参数量级模型中实现了领先的性能表现。

Gemma 4 共推出四个尺寸:Effective 2B (E2B)、Effective 4B (E4B)、26B 混合专家模型 (MoE) 和 31B 稠密模型 (Dense)。其中 31B 模型在 Arena AI 文本排行榜上位列开源模型第 3 名,26B 模型排名第 6,二者均超越了参数量达其 20 倍的竞争模型。26B MoE 模型在推理时仅激活 38 亿参数,侧重低延迟响应;31B Dense 模型则追求最高输出质量,适合作为微调基础。

在端侧部署方面,E2B 和 E4B 模型专为移动设备和物联网场景设计,可在手机、Raspberry Pi、NVIDIA Jetson Orin Nano 等设备上完全离线运行,实现接近零延迟的推理。Android 开发者可通过 AICore Developer Preview 立即开始原型开发,实现与未来 Gemini Nano 4 的前向兼容。

核心能力方面,Gemma 4 支持多步规划与深度逻辑推理、原生函数调用与结构化 JSON 输出、高质量离线代码生成,以及视频、图像、音频等多模态输入(音频输入仅限 E2B 和 E4B)。上下文窗口方面,边缘模型支持 128K 词元,大模型支持最高 256K 词元。此外,Gemma 4 原生支持超过 140 种语言。

值得关注的是,Gemma 4 采用了商业友好的 Apache 2.0 开源许可证。

Google DeepMind
一个小站的自留地
Anthropic 宣布调整 Claude 免费版、Pro 版和 Max 版订阅用户的会话限制机制。虽然每周总额度保持不变,但在工作日高峰时段(太平洋时间 5:00–11:00,对应北京时间 21:00 至次日 03:00),用户的 5 小时会话配额将以更快速度消耗。 Anthropic 产品负责人 Thariq 表示 ,公司已通过效率优化抵消部分影响,但仍有约 7% 的用户会触及此前不会遇到的会话限制,尤其是 Pro 版用户。他建议用户将占用大量 token 的后台任务转移到非高峰时段运行,以延长会话限制。此举旨在应对…
Claude Code 源码因 Source Map 配置疏漏再次泄露

3 月 31 日,有开发者发现 Anthropic 旗下 AI 编程智能体 Claude Code 的 v2.1.88 版本 NPM 发布包中包含了完整的 Source Map 文件 (cli.js.map)。该文件的 sourcesContent 字段保留了全部 TypeScript 源码,可通过简单脚本提取还原。

这是 Claude Code 第二次因相同原因发生源码泄露。2025 年 2 月 Claude Code 作为研究预览版首次发布时,就曾因 NPM 包中附带 Source Map 文件而导致源码外泄。Anthropic 当时迅速推送更新移除了 Source Map,并从 NPM Registry 下架了所有受影响的旧版本。此次事件发生后,Anthropic 启动了紧急撤包流程,NPM 上显示的最新版本已回退至 2.1.87。

与一年前相比,此次泄露的源码展示了大量新模块,包括多 Agent 协调模块 (coordinator/)、内部代号为「KAIROS」的助手模式 (assistant/)、语音交互模块 (voice/)、插件和技能系统 (plugins/、skills/),以及一个名为「buddy」的 AI 伴侣 UI 模块。目录结构还包含远程会话 (remote/)、Vim 模式 (vim/) 等组件,呈现出 Claude Code 从单一 CLI 工具向复合 Agent 平台演进的工程全貌。

值得注意的是,这并非 Anthropic 近期唯一的信息泄露事件。

3 月 26 日,Fortune 杂志报道称,Anthropic 因内容管理系统 (CMS) 配置错误,导致一份未发布的博客草稿被公开发现,其中提及了名为 Claude Mythos (亦称 Capybara) 的新模型。Anthropic 随后承认正在开发和测试该模型,称其代表了 AI 性能的「阶梯式跃升」(step change),是该公司迄今为止构建的最强模型。

老冯云数)(源码备份
一个小站的自留地
LiteLLM 仓库遭受供应链攻击 LLM 代理工具 LiteLLM 遭受名为 TeamPCP 的威胁行为者发起的供应链攻击。攻击者在 Python 软件包索引 (Python Package Index, PyPI) 发布了包含信息窃取程序的 1.82.7 和 1.82.8 恶意版本,上述版本在暴露约 3 小时后被官方隔离。 攻击者首先利用外泄的个人访问令牌 (Personal Access Token, PAT) ,在开发商 BerriAI 的 GitHub 仓库中推送了恶意的 GitHub Actions…
axios 遭复杂供应链攻击

2026 年 3 月 31 日,安全机构 StepSecurity 发现,广泛使用的 JavaScript HTTP 客户端库 axios 在 npm 上被发布了两个恶意版本 (1.14.1 和 0.30.4),均通过被盗的首席维护者凭据发布,绕过了项目正常的 CI/CD 流程。

攻击者将维护者账号邮箱篡改为一个 ProtonMail 匿名地址,并利用该账号的长期有效 npm 访问令牌通过命令行手动发布。在此之前,攻击者已从另一个一次性账号预先发布了恶意依赖 plain-crypto-js@4.2.1,两个账号均使用 ProtonMail 注册,呈现一致的操作特征。

恶意版本相比安全版本,唯一的变化是在依赖列表中新增了 plain-crypto-js@4.2.1。当开发者执行 npm install 时,npm 会自动解析并安装该依赖,随即触发其 postinstall 脚本启动木马投放程序。

恶意软件采用了多种高级规避技术:运行时解混淆以隐藏真实意图,动态加载 fs、os、execSync 等敏感模块以绕过静态扫描,可直接在宿主系统上执行解码后的 shell 命令,并将载荷文件部署至系统临时目录和 Windows ProgramData 目录等敏感位置,执行完毕后自动删除或重命名自身文件以对抗取证分析。

axios 每周下载量达数千万次 (Socket 统计约 8300 万次),是 JavaScript 生态中使用最广泛的 HTTP 客户端之一,此次事件的潜在波及面极大。

开发者应立即排查项目依赖,可通过以下命令检查是否受到影响:
npm ls axios plain-crypto-js


若确认安装了受影响版本,应视系统为已被入侵,将 axios 固定至安全版本 (1.14.0 或 0.30.3),轮换受影响机器上的所有密钥、API 密钥和凭据,并检查网络日志中是否存在指向已知 C2 域名或 IP 地址的出站连接。

(综合媒体报道)
一个小站的自留地
继旗舰模型 Qwen3.5-397B-A17B 首次开源后,Qwen 团队新增发布三款模型: Qwen3.5-122B-A10B、 Qwen3.5-27B (Dense) 与 Qwen3.5-35B-A3B 。上述模型均已在 GitHub、Hugging Face 及魔搭社区提供下载,供研究与微调使用。 同时,与 Qwen3.5-35B-A3B 对齐的托管生产版本 Qwen3.5-Flash API 已正式上线阿里云百炼平台。该版本默认支持 100 万词元 (Token) 的上下文长度,并内置了官方原生…
阿里推出  Qwen3.6 Plus Preview  和 Qwen3.5-Omni  系列大模型

阿里 Qwen 团队在 OpenRouter 平台正式上线了  Qwen3.6 Plus Preview  模型。该模型作为  Qwen Plus  系列的下一代演进版本,采用先进的混合架构以提升效率与可扩展性。其支持高达  1,000,000 token 的上下文窗口以及最大  65,536 tokens 的输出。

模型预览期间,开发者可以在 OpenRouter、OpenCode 和 Kilo Code 等平台和工具免费调用该模型。

与此同时,阿里 Qwen 正式发布了新一代全模态大模型  Qwen3.5-Omni  系列,包含  Plus、Flash  和  Light  三种尺寸。该模型原生实现了对文本、图片、音频及音视频的统一理解,同时支持超长音视频输入、音色克隆、智能语义打断以及  113  种语种和方言的语音交互。

目前,企业及开发者已可通过  Qwen Chat、阿里云百炼 API 进行体验和集成。

(橘鸦 Juya)
一个小站的自留地
Gemini 将成为 Apple Intelligence 基础模型 当地时间 2026 年 1 月 12 日,Apple 与 Google 发布联合声明,确认双方达成多年期合作:下一代 Apple 基础模型将基于 Google 的 Gemini 模型与云技术构建,并用于驱动未来 Apple Intelligence 功能,包括今年上线更个性化的 Siri。 Reuters 报道称,Apple 将在今年晚些时候推出改版后的 Siri,并引入 Gemini 模型能力。这也让 Gemini 获得新的系统级分发入口:Apple…
Apple 智能凌晨意外推送国行机型,功能已被撤回

3 月 31 日凌晨,部分国行 iPhone 用户在升级至 iOS 26.4 后,发现系统设置中出现了「Apple 智能与 Siri」入口,一度引发苹果 AI 功能正在进行灰度测试的猜测。

彭博社记者 Mark Gurman 随后确认,此次推送属于意外,苹果目前尚未获得中国监管部门的批准,也没有即将上线的计划,相关功能已被撤回。Gurman 还指出,苹果不会在没有正式公告的情况下在中国推出该功能,也不会选择在当地时间凌晨上线。

在 Apple 智能短暂可用期间,用户实测发现该功能并未完全开发就绪:「视觉智能」依旧使用 Google 搜索方案,「GPT 扩展」按钮虽存在但无法激活。不过,实时翻译、照片消除、协作工具、智绘表情 (Genmoji) 和图乐园 (Image Playground) 等大部分功能可正常使用。

值得注意的是,此前有媒体报道称 Apple 智能使用了百度文心大模型,但这是一个误传——相关截图中的回答实际来自 Siri 调用百度搜索的结果,旧版 Siri 同样能获取到相同答案。根据此前的报道,Apple 智能在中国将依托阿里巴巴的通义千问 (Qwen) 模型来满足监管要求。

Gurman 今年早些时候还曾透露,苹果计划同时与阿里巴巴和百度合作推进中国市场的 AI 布局:阿里巴巴负责调整和审核苹果端侧模型的内容以符合中国法规,百度则为「视觉智能」功能提供支持。

中国目前仍是全球最后一个尚未上线 Apple 智能的主要市场。截至目前,苹果官方尚未对此次事件做出正式回应。
Anthropic 宣布调整 Claude 免费版、Pro 版和 Max 版订阅用户的会话限制机制。虽然每周总额度保持不变,但在工作日高峰时段(太平洋时间 5:00–11:00,对应北京时间 21:00 至次日 03:00),用户的 5 小时会话配额将以更快速度消耗。

Anthropic 产品负责人 Thariq 表示 ,公司已通过效率优化抵消部分影响,但仍有约 7% 的用户会触及此前不会遇到的会话限制,尤其是 Pro 版用户。他建议用户将占用大量 token 的后台任务转移到非高峰时段运行,以延长会话限制。此举旨在应对 Claude 日益增长的需求,通过时段差异化管理平衡服务负载。

——————

OpenAI 宣布 为 Codex 推出插件功能,支持与 Slack、Figma、Notion、Gmail、Google Drive 等主流工具的开箱即用集成。插件可将应用集成、技能(skills)和 MCP 服务器配置打包为可安装的复用单元,覆盖代码编写前的规划、研究、协调以及后续工作流。

与此同时,OpenAI 产品负责人 Tibo 宣布 重置 Codex 所有订阅套餐的使用限额,让用户可无限制使用 Codex 构建项目,以便体验刚推出的插件功能。Tibo 表示限额重置将持续一段时间,鼓励用户充分测试新推出的插件生态。
API 协作平台 Apifox 遭供应链攻击,所有桌面端用户 SSH 密钥与凭证面临泄露风险

2026 年 3 月 4 日至 3 月 22 日期间,API 协作平台 Apifox 的公网 SaaS 版桌面客户端遭受供应链攻击。攻击者篡改了托管在 CDN 上的外部 JavaScript 文件,在合法的事件追踪代码末尾追加了约 42 KB 的恶意载荷。

恶意代码会采集机器指纹 (MAC 地址、CPU 型号、主机名等信息的 SHA-256 哈希值) 并窃取 Apifox 用户的访问令牌 (Access Token) ,随后通过 RSA-2048 加密将敏感信息发送至命令与控制 (Command and Control, C2) 服务器 apifox[.]it[.]com。C2 服务器返回经 RSA 加密的 Stage-1 加载器,动态生成随机路径的 Stage-2 攻击载荷。Stage-2 脚本通过 Node.js API 递归读取用户设备上的高敏感文件,包括:

- ~/.ssh/ 目录下的全部 SSH 密钥
- ~/.git-credentials 中的 Git 凭证
- ~/.zsh_history 和 ~/.bash_history 中的命令行历史
- ~/.kube/ 下的 Kubernetes 集群配置
- ~/.npmrc 中的 npm 注册表令牌


攻击者在入口文件中部署了精密的混淆与加密机制,但在服务端下发的实际攻击载荷中却保留了完整的中文开发注释。更关键的失误是将 RSA-2048 私钥硬编码在客户端代码中,使得安全研究人员得以解密全部 C2 通信并完整还原攻击链。

该恶意软件本质上是一个基于 eval() 的完整远程代码执行 (Remote Code Execution, RCE) 平台。C2 服务器在每次轮询 (间隔 30 分钟至 3 小时) 中均可下发完全不同的任意 JavaScript 代码。目前捕获的 Stage-2 载荷仅为前期侦察与凭据采集阶段,攻击者完全有能力根据已回传的机器指纹、Apifox 邮箱 (判断所属公司) 、SSH 密钥 (判断可达服务器) 、Kubernetes 配置 (判断集群规模) 等信息筛选高价值目标,并为其量身定制后续攻击载荷——包括但不限于独立后门植入、横向移动、源代码窃取、生产环境接管以及利用窃取的 npm 或 Git 令牌发起二次供应链投毒。

Apifox 官方已于 3 月 25 日发布紧急修复版本 2.8.19,彻底废除了在线动态加载机制,改为本地内置打包。官方强烈建议受影响用户立即升级客户端、全面轮换 SSH 密钥、吊销 Git 个人访问令牌 (Personal Access Token, PAT) 、重置 Kubernetes 集群凭证与 npm 注册表令牌,并在 hosts 文件中阻断恶意域名 apifox.it.com。私有化部署版与 SaaS Web 版用户不受此次事件影响。

Apifox 现有用户可通过以下方式观察是否被投毒事件影响:
- 检查 Electron localStorage 中是否存在 _rl_headers、_rl_mc 键
- 监控网络流量中是否有到 apifox[.]it[.]com 的历史请求流量
- 检查历史 HTTP 请求头中是否包含 af_uuid、af_os 等异常字段


(Apifox白帽酱)
Back to Top