起于小站,终于生活。
现实之外,一个普通人的思考。

博客地址:ygxz.in
讨论组:https://t.me/ygxz_group
WildCard 官网已经无法打开,网传已经关停跑路。

由于能支付宝充值,因此该卡片是国内推广最多的卡片之一。

目前相对正规的U 卡基本已经不支持在国内消费,比如Bybit 等卡片已经无法绑定主流支付方式。
一个小站的自留地
Kimi 上线数学推理模型 k0-math 国内 AI 大模型公司月之暗面推出 k0-math 模型驱动的 Kimi 数学版,官方宣称「k0-math 模型数学能力对标 o1 系列」。 (月之暗面) —————— 根据SuperCLUE-Math6o「小学奥数」基准测评总榜,数学模型 k0-math 在数学任务中表现出对应用题和计算较强的处理能力,但在行程问题和几何任务上略显薄弱。 与o1-preview相比,数学模型 k0-math 在 SC-math6o 上仍有 18 分的差距,尚有较大的…
Kimi 发布下一代基础大模型 k2

月之暗面于 2025 年 7 月 12 日发布并开源 Kimi K2 大模型,总参数量达 1 万亿,采用 MoE 架构,激活参数 32 亿。该模型支持 128K 最大上下文长度,在自主编程、工具调用和数学推理等基准测试中表现突出,取得开源模型 SOTA 成绩。模型技术亮点包括 MuonClip 优化器,在 15.5 万亿词元数据上实现稳定训练,以及大规模 Agentic 数据合成和通用强化学习;未来将加入思考和视觉理解能力。

本次开源包括 Kimi-K2-Base(基础预训练模型)和 Kimi-K2-Instruct(指令微调版本),遵循修改版 MIT 协议,可商用。

API 服务已上线,定价为输入 4 元/百万词元,输出 16 元/百万词元。

月之暗面
一个小站的自留地
Grok 4 系列模型据信将在一周内发布。 目前消息称 Grok 4 系列会有 grok-4-0629 和 grok-4-code-0629 两个型号。具有和前代模型相同的 128k 上下文窗口,支持推理,但只能输入文本模态内容。
马斯克旗下 xAI 发布 Grok 4 模型

北京时间 2025 年 7 月 10 日,Elon Musk 旗下的 xAI 公司正式发布了其下一代大语言模型 Grok 4 。该模型在多项关键基准测试中表现出色,综合性能超越了 OpenAI 的 o3 和 Google 的 Gemini 2.5 Pro 等主要竞争对手 。

Grok 4 在被誉为「人类最后的考试 (HLE)」的超高难度测试中得分远超以往模型,其增强版 Grok 4 Heavy 更是在 AIME 2025 (美国数学邀请赛) 中取得满分 。根据 AI 评估平台 Artificial Analysis 的数据,Grok 4 目前在综合性能上排名第一 。

Grok 4 是一个支持文本和图像输入的多模态模型,拥有 256K 的上下文窗口 。其强大的推理能力得益于在强化学习 (RL) 上的大量投入 。Grok 4 Heavy 版本更是一个多智能体系统,能协同解决复杂问题 。

目前,Grok 4 已向付费用户开放,提供每年 300 美元和 3000 美元(针对 Grok 4 Heavy)两种订阅等级 。其 API 接口也已上线,价格与前代持平 。xAI 还公布了未来计划,将在未来数月内陆续发布专用的编码模型、多模态智能体和视频生成模型 。

(综合媒体报道)
一个小站的自留地
前端开发框架 Remix 的开发团队宣布了两个重要发展方向: React Router v7 已将 Remix 的核心功能完全整合进来,包括服务端渲染、代码分割和实验性的 React Server Components (RSC) 支持。这为现有的数百万 React Router 项目提供了升级到现代全栈开发的平滑路径。 RSC 是这次更新的亮点,它允许开发者在服务器端渲染组件,然后将结果传送到客户端,实现了更高效的数据加载和更好的性能表现。 Remix v3 将放弃 React 转而基于 Preact…
Vercel 宣布收购 NuxtLabs

Vercel 宣布收购 NuxtLabs,标志着 Nuxt 这个基于 Vue.js 的全栈框架将加入 Vercel 生态。NuxtLabs 成立于 2017 年,其开源框架 Nuxt 每周下载量超过百万次,以文件路由、自动导入和服务器端渲染功能著称。

此次收购后,NuxtLabs 计划将 Nuxt UI v4 的所有 Pro 组件免费开放,并附带 Figma Kit。基于 Git 的内容管理系统 Nuxt Studio 也将开源,支持实时协作和类 Notion 编辑体验。同时,即将推出的 NuxtHub 将与 Vercel Marketplace 集成,支持 Postgres 和 Redis 等服务。Vue.js 创始人尤雨溪确认,此前与 VoidZoid 合作开发 DevTools 的合同仍然有效。

收购完成后,Vercel 旗下将拥有 Next.js、Svelte 和 Nuxt 三大主流前端框架。虽然 Vercel 承诺保持 Nuxt 的开源特性和独立治理模式,但部分开发者对前端框架生态集中化表示担忧。支持者认为此举为 Nuxt 提供了可持续发展的资源保障,质疑者则担心可能形成技术垄断和厂商绑定。

Vercel
一个小站的自留地
阿里云发布 Qwen2.5-Max 模型,称其性能超越 DeepSeek V3 和 GPT-4o 阿里云于 2025 年 1 月 29 日推出 Qwen2.5-Max 大语言模型,该模型基于混合专家架构(Mixture-of-Experts, MoE),参数规模超 200 亿,训练数据量达 20 万亿词元。据官方基准测试显示,Qwen2.5-Max 在 Arena-Hard(89.4)、LiveBench(62.2)等 5 项核心指标上均超越 DeepSeek V3 和 GPT-4o,其中数学推理能力(GSM8K…
华为盘古大模型涉嫌抄袭争议

HonestAGI 近日发布 报告 ,指出华为盘古 Pro MoE 72B 大语言模型与阿里千问 2.5 14B 模型存在异常高的相似性。该分析基于一种新的参数分布指纹识别技术,通过检测注意力机制参数的标准差分布模式来识别模型血缘关系。

分析结果显示,两个模型在查询、键值、数值和输出投影矩阵上的相关系数分别达到 0.867、0.928、0.939 和 0.973,综合相关系数为 0.927,远超正常独立开发模型间 0.3 至 0.7 的相似度范围。技术报告还发现,盘古模型保留了千问模型特有的 QKV bias 设计和注意力层归一化权重模式,而这些特征在千问后续版本中已被放弃。

同时,一位自称华为诺亚方舟实验室员工的匿名人士发布详细 举报材料 ,指控由王云鹤领导的「小模型实验室」多次采用「套壳」现有模型的做法。举报者称,盘古 Pro MoE 72B 虽然内部声称是从小模型实验室的 7B 模型扩增而来,但实际上是基于千问 2.5 14B 模型进行的改造。为了掩盖模型来源,开发团队付出了巨大的算力成本进行续训,甚至故意训练「脏数据」来模糊原始特征。举报者表示,用于「洗参数」的算力投入已经足够从头训练一个同等规模的模型

华为诺亚方舟实验室于 7 月 5 日发布 声明 回应争议。声明表示,盘古 Pro MoE 是基于昇腾硬件平台开发训练的基础大模型,并非基于其他厂商模型增量训练而来。华为承认模型的部分基础组件代码实现参考了业界开源实践,但强调严格遵循开源许可证要求。

2025 年 3 月,华为诺亚方舟实验室发生人事变动,90 后王云鹤接替姚骏担任实验室主任。王云鹤此前担任华为算法应用部部长,曾因高效 AI 算法创新获得华为「十大发明」奖项。

(综合媒体报道)
一个小站的自留地
AI 代码编辑器 Cursor 发布了 1.0 正式版。带来了多项重要功能更新,包括自动生成记忆、自动代码审查工具 BugBot、一键 MCP 安装以及 Jupyter 笔记本支持等新功能。 另外,通过设置页面新增的网络调试功能,用户可以自主选择是否使用 HTTP/2,这对部分代理场景有兼容性提升。
AI 代码编辑器 Cursor 宣布就此起对个人 Pro 用户的计费模式调整造成的模糊致歉,并承诺:

- 退还过去三周内用户因使用而产生的任何意外费用
- 新的 Pro 定价允许用户使用无限次 Tab 补全和 Auto 模型,并提供 20 美金的 API 额度供高级模型和高级功能调用(无需额外计费)。

(Cursor Blog)
Back to Top