Mistral AI 正式发布新一代模型家族 Mistral 3,包含旗舰级模型 Mistral Large 3 以及三款轻量级模型 Ministral 3(3B、8B、14B),所有模型均采用 Apache 2.0 许可协议开源。
Mistral Large 3 采用稀疏混合专家(MoE)架构,拥有 6750 亿总参数量(激活参数 410 亿),在 NVIDIA H200 GPU 集群上从头训练而成。该模型具备多模态图像理解能力和强大的多语言处理能力,支持超过 40 种自然语言。根据官方公布的基准测试,Mistral Large 3 在 MMMLU、AMC 数学竞赛题等多个维度上性能优于或持平 DeepSeek-3.1 (670B) 及 Kimi-K2 (1.2T);在 LMArena 排行榜的开源非推理模型类别中排名第二。
Ministral 3 系列则专为边缘计算和本地部署设计,提供基础版、指令微调版和推理版三种变体,同样支持图像理解,主打高性价比和低资源消耗。目前,Mistral 3 系列模型已上线 Hugging Face、Mistral AI Studio 以及 Amazon Bedrock、Azure 等主流云平台;Mistral Large 3 的推理版本也即将推出。
(Mistral AI)