在开源大模型领域,欧洲新星Mistral AI再次展现了其惊人的进化速度。2024年3月16日,Mistral AI正式发布了其首款真正意义上的“全能”大模型——Mistral Small4。这款模型首次将旗舰级推理、多模态理解和强大编程能力完美融合于一体,开发者不再需要在不同垂直领域模型间做出选择,实现了“我全都要”的愿望。
Mistral Small4采用了先进的专家混合(MoE)架构:
- 核心参数:总参数量达1190亿,但仅激活60亿参数,大幅提升运行效率的同时保持强劲性能。
- 扩展上下文窗口:支持高达256k的上下文长度,轻松处理完整技术文档或大型代码库。
- 灵活模式:支持快速响应和深度推理两种模式,并且在Apache 2.0开源许可下正式发布,展现了极大诚意。
性能方面,Mistral Small4相比前代产品实现了质的飞跃。官方数据显示,在延迟优化模式下,端到端完成时间缩短40%;在吞吐量优化模式下,每秒请求处理量是Small3的三倍。在与外部大型模型的交叉对比中,其在三项核心基准测试中的表现不逊于OpenAI的GPT-OSS120B。
![]()
部署需求与硬件推荐:
为了充分发挥模型潜力,Mistral AI给出了明确的硬件建议。最低配置需求为4块HGX H100或1台DGX B200;官方推荐的最佳体验配置是4块HGX H200或2台DGX B200的组合。
随着Mistral Small4的发布,Mistral AI再次巩固了其在开源大模型领域的领先地位,为开发者带来了集推理、多模态和编程于一体的全能解决方案。


