MiniMax M2.5 开源 低成本 Agent 时代来临
2026年2月14日 15:46·AIBase
MiniMax 发布 M2.5模型,这是其 M2系列108天内的第三个版本,模型开源权重同步上线魔搭 ModelScope,实现了能力、效率、成本的三重突破,在编程、搜索、办公多场景表现领先,还提供了从零代码使用到私有化部署的全流程接入方案,以及工具调用、推理参数调优的完整实战指南,推动低成本 Agent 时代到来。

核心能力实现多维度突破
M2.5在多项权威评测中成绩亮眼,SWE-Bench Verified 达80.2%,超越 GPT-5.2且逼近 Claude Opus4.5,Multi-SWE-Bench 以51.3% 位居多语言编程能力行业第一,BrowseComp 达76.3%,搜索与工具调用能力大幅领先。编程上,模型涌现出架构师级别的规划能力,覆盖完整开发生命周期,支持多平台全栈开发,框架泛化能力优于 Claude Opus4.6;搜索方面能减少20% 轮次消耗,专家级搜索任务表现卓越;办公场景融合金融、法律等行业知识,高阶办公能力突出,内部评测对主流模型胜率达59.0%。同时,M2.5速度较 M2.1提升37%,与 Claude Opus4.6耗时持平,成本仅为其1/10。
技术创新造就快速迭代
M2.5的快速进化源于三大核心技术创新:一是 Forge 原生 Agent RL 框架,实现约40倍训练加速;二是 CISPO 算法保障大规模训练稳定性,解决长上下文信用分配难题;三是创新 Reward 设计,平衡模型效果与响应速度。该技术让 MiniMax 内部30% 日常任务、80% 新提交代码由 M2.5完成,M2系列108天内 SWE-Bench Verified 从69.4% 飙升至80.2%,迭代速度领先行业主流模型。
多方式部署适配不同场景
M2.5提供零代码、API 调用、本地部署三种接入方式,满足不同用户需求。非技术用户可通过 MiniMax Agent 网页端开箱即用,平台已有超10000个用户创建的可复用 “Expert”;开发者可调用魔搭免费 API 或官方 API,官方还推出 Lightning 和标准版两个 API 版本,成本仅为同类模型的1/10-1/20;本地部署支持 SGLang、vLLM、Transformers、MLX 四种方案,分别适配高并发生产、中小规模生产、快速验证、Mac 本地开发等场景,并给出了各方案的硬件要求和操作步骤。
工具调用与参数调优有专属方案
M2.5原生支持结构化工具调用,可并行调用多个工具,通过 vLLM/SGLang 部署可直接使用 OpenAI SDK 格式,其他框架需手动解析 XML 格式输出,同时给出了工具结果回传模型的完整流程和最佳实践。推理方面,官方推荐 temperature=1.0、top_p=0.95、top_k=40的参数配置,不同场景可灵活调优;编程提示词可利用模型的架构师思维,且模型对10+ 编程语言和多种脚手架均有优秀的适配性。





