使用本接口,调用文本模型创建对话补全。
请求体的媒介类型,请设置为 application/json,确保请求数据的格式为 JSON
application/json 模型 ID。可选值:MiniMax-M2, MiniMax-M1, MiniMax-Text-01 。注:MiniMax-M2 和 MiniMax-M1 为推理模型,为获得最佳体验建议使用流式输出
MiniMax-M2, MiniMax-M1, MiniMax-Text-01 包含对话历史的消息列表
是否使用流式传输,默认为 false。设置为 true 后,响应将分批返回
废弃参数,请使用max_completion_tokens
指定生成内容长度的上限(Token 数)。超过上限的内容会被截断。如果生成因 length 原因中断,请尝试调高此值
默认值:MiniMax-M2 为 10240,MiniMax-M1 为 8192,MiniMax-Text-01 为 2048
x >= 1指定生成内容长度的上限(Token 数)。超过上限的内容会被截断。如果生成因 length 原因中断,请尝试调高此值
默认值:MiniMax-M2 为 10240,MiniMax-M1 为 8192,MiniMax-Text-01 为 2048。
x >= 1温度系数,影响输出随机性,取值范围 (0, 1],取值范围 (0, 1]。值越高,输出越随机;值越低,输出越确定
MiniMax-M2 推荐使用 1.0
MiniMax-M1 默认值为 1.0,推荐范围 [0.8, 1.0]
MiniMax-Text-01 默认值为 0.1,适用于答案明确的场景,对于文案生成等发散性场景可适当调高至 0.7-1.0
0 < x <= 1采样策略,影响输出随机性,取值范围 (0, 1],各模型默认为 0.95,MiniMax-M2 推荐使用 0.95
0 < x <= 1可供模型选择调用的工具列表。更多详情参考 M2 工具使用 & Interleaved Thinking
控制模型如何使用工具。none (不调用) 或 auto (自主决定)
none, auto 指定模型输出的格式,当前仅 MiniMax-Text-01 支持此参数
设置为 { "type": "json_schema", "json_schema": {...} } 可强制模型按指定的 JSON Schema 结构输出
本次响应的唯一 ID
响应选择列表
响应创建的 Unix 时间戳(秒)
本次请求使用的模型 ID
对象类型。非流式为 chat.completion,流式为 chat.completion.chunk
chat.completion, chat.completion.chunk 本次请求的 Token 使用情况统计
输入内容是否命中敏感词。如果输入内容严重违规,接口会返回内容违规错误信息,回复内容为空
输入命中敏感词类型,当input_sensitive为true时返回。取值为以下其一:1 严重违规;2 色情;3 广告;4 违禁;5 谩骂;6 暴恐;7 其他
输出内容是否命中敏感词。如果输出内容严重违规,接口会返回内容违规错误信息,回复内容为空
输出命中敏感词类型
错误状态码和详情