Mistral Small 3.1
SOTA. 多模态. 多语言. Apache 2.0
今天,我们宣布推出 Mistral Small 3.1:同量级中性能最优的模型。
基于 Mistral Small 3,这个新模型在文本性能、多模态理解方面有所提升,并将上下文窗口扩展至最高 128k tokens。该模型性能超越了同类模型,如 Gemma 3 和 GPT-4o Mini,同时推理速度可达每秒 150 tokens。
Mistral Small 3.1 在 Apache 2.0 许可下发布。
现代 AI 应用需要多种能力的融合——处理文本、理解多模态输入、支持多种语言和管理长上下文——同时要求低延迟和高成本效益。如下所示,Mistral Small 3.1 是首个开源模型,它不仅达到了,而且在所有这些维度上超越了领先的小型专有模型的性能。
您将在下方找到更多关于模型性能的详细信息。在可能的情况下,我们展示了其他提供商先前报告的数据,否则我们通过我们通用的评估体系来评估模型。
指令遵循性能
文本指令基准测试
多模态指令基准测试
MM-MT-Bench 评分范围为 0 至 100。
多语言
长上下文
预训练性能
我们也发布了 Mistral Small 3.1 的预训练基础模型。
所有预训练模型
使用案例
Mistral Small 3.1 是一款多功能模型,旨在处理各种生成式 AI 任务,包括指令遵循、对话助手、图像理解和函数调用。它为企业级和消费级 AI 应用提供了坚实的基础。
主要特点和能力
-
轻量级:Mistral Small 3.1 可以在单个 RTX 4090 或配备 32GB RAM 的 Mac 上运行。这使其非常适合设备端使用案例。
-
快速响应的对话助手:非常适合需要快速、准确响应的虚拟助手及其他应用。
-
低延迟函数调用:能够在自动化或智能体工作流程中快速执行函数。
-
针对专业领域的微调:Mistral Small 3.1 可以进行微调,使其专注于特定领域,从而创建准确的领域专家。这在法律咨询、医学诊断和技术支持等领域尤其有用。
-
高级推理的基础:我们持续对社区在开源 Mistral 模型基础上进行构建的方式感到惊叹。就在过去几周,我们看到了许多基于 Mistral Small 3 构建的优秀推理模型,例如 Nous Research 的 DeepHermes 24B。为此,我们发布了 Mistral Small 3.1 的基础和指令检查点,以支持对模型进行进一步的下游定制。
Mistral Small 3.1 可用于需要多模态理解的各种企业级和消费级应用,例如文档验证、诊断、设备端图像处理、质量检查的视觉检测、安防系统中的物体检测、基于图像的客户支持以及通用助手。
可用性
Mistral Small 3.1 可在 huggingface 网站下载:Mistral Small 3.1 Base 和 Mistral Small 3.1 Instruct。对于需要私有化和优化推理基础设施的企业部署,请联系我们。
您也可以今天开始通过 API 在 Mistral AI 的开发者平台 La Plateforme 上试用该模型。该模型也已在 Google Cloud Vertex AI 上线。未来几周内,Mistral Small 3.1 将在 NVIDIA NIM 和 Microsoft Azure AI Foundry 上线。
祝您构建愉快!