在开源大模型领域,Mistral AI再次彰显了“效率优先”的理念。近日,该公司宣布正式开源其Small系列最新力作——Mistral Small4,采用Apache 2.0许可证发布,并同时宣布加入由NVIDIA发起成立的Nemotron联盟,成为创始成员之一。

这不仅仅是一次简单的升级。Mistral Small4被官方定义为首个“多功能三合一”模型,完美融合了Mistral家族此前引以为傲的三大旗舰能力:

  • Magistral:卓越的逻辑推理能力。
  • Pixtral:强大的原生多模态处理能力(支持图像输入)。
  • Devstral:专业的智能代理编码能力。

这意味着开发者无需再在“快速指令模型”、“重推理引擎”或“多模态助手”之间做选择,一个模型即可覆盖所有场景。

在技术规格上,Mistral Small4采用了精准的128专家混合专家模型(MoE)架构。尽管总参数量达到1190亿,但通过优化,每个token仅激活4个专家(约600亿活跃参数),大幅降低计算成本的同时保持性能表现。此外,超长的256k上下文窗口使其能够轻松应对长文档分析和复杂对话。

值得一提的是,该模型引入了“可配置推理强度”功能,用户可自由切换低延迟快速响应和深度推理输出。测试数据显示:

  • 在延迟优化模式下,端到端完成时间缩短了40%。
  • 在吞吐量优化模式下,每秒请求数(RPS)较上一代提升了3倍。

从代码补全到视觉分析,Mistral Small4的开源无疑为全球开发者提供了更灵活高效的“多面手基础模型”。当顶级推理能力与原生多模态结合,开源社区的创新天花板或将再次被刷新。