快速开始
1. 安装 Anthropic SDK
2. 配置环境变量
3. 调用 API
Python
4. 特别注意
在多轮 Function Call 对话中,必须将完整的模型返回(即 assistant 消息)添加到对话历史,以保持思维链的连续性:- 将完整的
response.content(包含 thinking/text/tool_use 等所有块)添加到消息历史 response.content是一个列表,包含多种类型的内容块,必须完整回传
支持的模型
使用 Anthropic SDK 时,支持MiniMax-M2.5 MiniMax-M2.5-highspeed MiniMax-M2.1 MiniMax-M2.1-highspeed MiniMax-M2 模型:
| 模型名称 | 上下文窗口 | 模型介绍 |
|---|---|---|
| MiniMax-M2.5 | 204,800 | 顶尖性能与极致性价比,轻松驾驭复杂任务(输出速度约 60 TPS) |
| MiniMax-M2.5-highspeed | 204,800 | M2.5 极速版:效果不变,更快,更敏捷(输出速度约 100 TPS) |
| MiniMax-M2.1 | 204,800 | 强大多语言编程能力,全面升级编程体验(输出速度约 60 TPS) |
| MiniMax-M2.1-highspeed | 204,800 | M2.1 极速版:效果不变,更快,更敏捷(输出速度约 100 TPS) |
| MiniMax-M2 | 204,800 | 专为高效编码与 Agent 工作流而生 |
TPS(Tokens Per Second)的计算方式详见常见问题 > 接口相关。
Anthropic API 兼容接口支持
MiniMax-M2.5 MiniMax-M2.5-highspeed MiniMax-M2.1 MiniMax-M2.1-highspeed MiniMax-M2
模型。如需使用其他模型,请使用标准的 MiniMax API 接口。兼容性说明
支持的参数
在使用 Anthropic SDK 接入时,我们支持以下输入参数:| 参数 | 支持状态 | 说明 |
|---|---|---|
model | 完全支持 | 支持 MiniMax-M2.5 MiniMax-M2.5-highspeed MiniMax-M2.1 MiniMax-M2.1-highspeed MiniMax-M2 模型 |
messages | 部分支持 | 支持文本和工具调用,不支持图像和文档输入 |
max_tokens | 完全支持 | 最大生成 token 数 |
stream | 完全支持 | 流式响应 |
system | 完全支持 | 系统提示词 |
temperature | 完全支持 | 取值范围 (0.0, 1.0],控制输出随机性,建议取值 1 |
tool_choice | 完全支持 | 工具选择策略 |
tools | 完全支持 | 工具定义 |
top_p | 完全支持 | 核采样参数 |
thinking | 完全支持 | 推理内容 |
metadata | 完全支持 | 元信息 |
top_k | 忽略 | 该参数会被忽略 |
stop_sequences | 忽略 | 该参数会被忽略 |
service_tier | 忽略 | 该参数会被忽略 |
mcp_servers | 忽略 | 该参数会被忽略 |
context_management | 忽略 | 该参数会被忽略 |
container | 忽略 | 该参数会被忽略 |
Messages 字段支持
| 字段类型 | 支持状态 | 说明 |
|---|---|---|
type="text" | 完全支持 | 文本消息 |
type="tool_use" | 完全支持 | 工具调用 |
type="tool_result" | 完全支持 | 工具调用结果 |
type="thinking" | 完全支持 | 推理的内容 |
type="image" | 不支持 | 暂不支持图像输入 |
type="document" | 不支持 | 暂不支持文档输入 |
示例代码
流式响应
Python
注意事项
如果在使用模型过程中遇到任何问题:- 通过邮箱 Model@minimaxi.com 等官方渠道联系我们的技术支持团队
- 在我们的 Github 仓库提交Issue





