一个小站的自留地
阿里巴巴发布旗舰模型 Qwen3-Max 阿里巴巴发布旗舰模型 Qwen3-Max。该模型参数超过 1 万亿,使用 36T 词元 (Tokens) 进行预训练。其指令微调版本 Qwen3-Max-Instruct 在 LMArena 文本排行榜上名列第三,超越了 GPT-5-Chat。在代码生成基准 SWE-Bench Verified 和智能体 (agent) 工具调用基准 Tau2-Bench 上的得分也超越了 Claude Opus 4 等模型。目前 Qwen3-Max 已通过阿里云 API 和千问官网…
阿里巴巴开源 Qwen3-VL-Embedding 与 Qwen3-VL-Reranker 模型

据通义大模型消息,阿里通义于 2026 年 1 月 8 日正式发布并开源 Qwen3-VL-Embedding 与 Qwen3-VL-Reranker 系列模型,采用 Apache 2.0 许可发布。该系列基于 Qwen3-VL 构建,定位多模态信息检索与跨模态理解,可用于图文、截图、视频等混合内容的匹配与检索。

模型规格方面,当前开源版本包括 Qwen3-VL-Embedding-2B、Qwen3-VL-Embedding-8B,以及 Qwen3-VL-Reranker-2B、Qwen3-VL-Reranker-8B;序列长度均为 32K。以 Qwen3-VL-Embedding-8B 为例,其支持 30+ 语言,参数量 8B,默认向量维度最高 4096,并支持通过套娃表征学习 (Matryoshka Representation Learning, MRL) 输出自定义维度;模型卡同时提到支持对输出向量进行量化处理,并支持按任务自定义指令 (instruct)。官方评测称,在多数下游任务中加入指令通常可带来约 1%–5% 的提升,并建议多语言场景优先使用英文指令。

基准测试方面,模型卡披露了 MMEB-V2 与 MMTEB 等评测结果:在 MMEB-V2 的 78 个数据集综合统计中,Qwen3-VL-Embedding-8B 得分为 77.9,Qwen3-VL-Embedding-2B 为 73.4;在 MMTEB 统计中,Qwen3-VL-Embedding-8B 的 Mean (Task) 为 67.88。

huggingface
 
 
Back to Top