1 月 31 日,科技媒体 marktechpost 报道称,Mistral AI 推出了名为 Mistral-Small-24B-Instruct-2501 的新模型,简称 Small 3。该模型拥有 240 亿参数,具备先进的推理能力、多语言支持和便捷的应用集成,在多个基准测试中表现优异。
Small 3 基于 Apache 2.0 许可证发布,允许开发者自由修改、部署和集成到各种应用程序中。尽管参数量不及 Meta 的 Llama 3.3 70B 和阿里巴巴的 Qwen 32B 等更大模型,但在相同硬件上,官方声称其性能超过三倍。该模型针对本地部署进行了优化,即使在 RTX 4090 GPU 或配备 32GB RAM 的笔记本电脑上也能流畅运行。
此外,Small 3 在多样化的指令型任务上进行了微调,擅长处理长篇输入并保持高响应速度。它还支持 JSON 格式输出和原生函数调用,非常适合对话和特定任务的实现。在 HumanEval 上达到 84.8% 的准确率,在数学任务上达到 70.6%,并在 MMLU 基准测试中超过 81% 的准确率,每秒可处理高达 150 个 token。
这款模型适用于对话式 AI、低延迟自动化、特定领域专业知识以及本地推理等应用场景。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。