订阅 Coding Plan ,即可以超低价格使用 MiniMax 文本模型!
模型概览
MiniMax 提供多款文本模型,满足不同场景需求。MiniMax-M2.5 在编程、工具调用和搜索、办公等生产力场景都达到或刷新了行业的 SOTA。支持模型
| 模型名称 | 上下文窗口 | 模型介绍 |
|---|---|---|
| MiniMax-M2.5 | 204,800 | 顶尖性能与极致性价比,轻松驾驭复杂任务(输出速度约 60 TPS) |
| MiniMax-M2.5-highspeed | 204,800 | M2.5 极速版:效果不变,更快,更敏捷(输出速度约 100 TPS) |
| MiniMax-M2.1 | 204,800 | 强大多语言编程能力,全面升级编程体验(输出速度约 60 TPS) |
| MiniMax-M2.1-highspeed | 204,800 | M2.1 极速版:效果不变,更快,更敏捷(输出速度约 100 TPS) |
| MiniMax-M2 | 204,800 | 专为高效编码与 Agent 工作流而生 |
TPS(Tokens Per Second)的计算方式详见常见问题 > 接口相关。
MiniMax M2.5 核心亮点
编程:像架构师一样思考和构建
编程:像架构师一样思考和构建
M2.5 在超过 10 种语言(包括 GO、C、C++、TS、Rust、Kotlin、Python、Java、JS、PHP、Lua、Dart、Ruby)和数十万个真实环境中进行了训练。模型演化出了原生 Spec 行为:在动手写代码前,以架构师视角主动拆解功能、结构和 UI 设计,实现完整的前期规划。
办公:Word、PPT、Excel 金融建模场景可交付
办公:Word、PPT、Excel 金融建模场景可交付
M2.5 深度融合金融、法律与社会科学专家的真实需求与隐性知识,构建专业评测体系与成本监控框架,在 Word、PPT 与金融建模等高阶办公场景中,实现高质量、可量化、可规模化的专业交付。
效率:更快拆解,更快执行,更快交付
效率:更快拆解,更快执行,更快交付
100TPS 的推理速度、强化学习优化的复杂任务拆解能力与更高的 token 使用效率,M2.5 在复杂任务执行中显著缩短端到端耗时——在 SWE-Bench Verified 上平均耗时从 31.3 分钟降至 22.8 分钟,实现 37% 提速,在效率上进入主流顶级模型区间。
成本:让复杂 Agent 真正可以长期运行
成本:让复杂 Agent 真正可以长期运行
M2.5以极具竞争力的定价实现高性能输出——在 100TPS 下每小时连续运行仅约 1 美金,50TPS 版本成本更低,使长期、多 Agent、全年规模化部署成为现实,推动 Agent 进入”经济可持续”的时代。
更多模型介绍请参考 MiniMax M2.5
调用示例
API 参考
Anthropic API 兼容(推荐)
通过 Anthropic SDK 调用 MiniMax 模型,支持流式输出和 Interleaved Thinking
OpenAI API 兼容
通过 OpenAI SDK 调用 MiniMax 模型
文本生成
直接通过 HTTP 请求调用文本生成接口
在 AI 编程工具里使用 M2.5
在 Claude Code、Cursor、Cline 等工具中使用 M2.5
联系我们
如果在使用 MiniMax 模型过程中遇到任何问题:- 通过邮箱 Model@minimaxi.com 等官方渠道联系我们的技术支持团队
- 在我们的 Github 仓库提交 Issue