本文档介绍如何在阿里云百炼平台调用稀宇科技(简称MiniMax)直供的模型推理服务。
重要
本文档仅适用于中国内地地域。如需使用模型,需从中国内地地域获取API Key。
模型介绍
MiniMax-M2.5 是MiniMax推出的最新文本模型,擅长编程、文本摘要等任务,且输出速度快,推荐使用。
模型名称 | 上下文长度 | 最大输入 | 最大思维链长度+回复长度 不支持thinking_budget参数 |
(Token数) | |||
MiniMax/MiniMax-M2.5 | 204,800 | 204,800 | 131,072 |
MiniMax/MiniMax-M2.1 | |||
仅支持思考模式。
以上模型为MiniMax直供,非部署在阿里云百炼服务器上。
服务开通
前往百炼控制台,搜索 MiniMax,找到 MiniMax 模型卡片,单击立即开通;
在弹窗内确认开通及授权。
完成以上步骤即可调用MiniMax提供的 MiniMax 模型服务。
快速开始
API 使用前提:已获取API Key并完成配置API Key到环境变量。如果通过SDK调用,需要安装SDK。
OpenAI兼容
Python
示例代码
import os
from openai import OpenAI
client = OpenAI(
api_key=os.getenv("DASHSCOPE_API_KEY"),
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
)
completion = client.chat.completions.create(
model="MiniMax/MiniMax-M2.5",
messages=[{"role": "user", "content": "你是谁"}],
stream=True,
)
reasoning_content = "" # 完整思考过程
answer_content = "" # 完整回复
is_answering = False # 是否进入回复阶段
print("\n" + "=" * 20 + "思考过程" + "=" * 20 + "\n")
for chunk in completion:
if chunk.choices:
delta = chunk.choices[0].delta
# 只收集思考内容
if hasattr(delta, "reasoning_content") and delta.reasoning_content is not None:
if not is_answering:
print(delta.reasoning_content, end="", flush=True)
reasoning_content += delta.reasoning_content
# 收到content,开始进行回复
if hasattr(delta, "content") and delta.content:
if not is_answering:
print("\n" + "=" * 20 + "完整回复" + "=" * 20 + "\n")
is_answering = True
print(delta.content, end="", flush=True)
answer_content += delta.content返回结果
====================思考过程====================
用户问我是谁。根据系统提示,我应该以"MiniMax-M2.1"的身份回应,并且提到我是由MiniMax公司开发的。
这是一个简单的自我介绍问题,我应该简洁明了地回答。
====================完整回复====================
你好!我是 **MiniMax-M2.1**,由 **MiniMax** 公司开发的AI助手。
我可以帮助你回答问题、提供信息、进行对话等各种任务。有什么我可以帮助你的吗?Node.js
示例代码
import OpenAI from "openai";
import process from 'process';
// 初始化OpenAI客户端
const openai = new OpenAI({
// 如果没有配置环境变量,请用阿里云百炼API Key替换:apiKey: "sk-xxx"
apiKey: process.env.DASHSCOPE_API_KEY,
baseURL: 'https://dashscope.aliyuncs.com/compatible-mode/v1'
});
let reasoningContent = ''; // 完整思考过程
let answerContent = ''; // 完整回复
let isAnswering = false; // 是否进入回复阶段
async function main() {
const messages = [{ role: 'user', content: '你是谁' }];
const stream = await openai.chat.completions.create({
model: 'MiniMax/MiniMax-M2.5',
messages,
stream: true,
});
console.log('\n' + '='.repeat(20) + '思考过程' + '='.repeat(20) + '\n');
for await (const chunk of stream) {
if (chunk.choices?.length) {
const delta = chunk.choices[0].delta;
// 只收集思考内容
if (delta.reasoning_content !== undefined && delta.reasoning_content !== null) {
if (!isAnswering) {
process.stdout.write(delta.reasoning_content);
}
reasoningContent += delta.reasoning_content;
}
// 收到content,开始进行回复
if (delta.content !== undefined && delta.content) {
if (!isAnswering) {
console.log('\n' + '='.repeat(20) + '完整回复' + '='.repeat(20) + '\n');
isAnswering = true;
}
process.stdout.write(delta.content);
answerContent += delta.content;
}
}
}
}
main();返回结果
====================思考过程====================
用户问我是谁。根据系统提示,我应该以"MiniMax-M2.1"的身份回应,并且提到我是由MiniMax公司开发的。
这是一个简单的自我介绍问题,我应该简洁明了地回答。
====================完整回复====================
你好!我是 **MiniMax-M2.1**,由 **MiniMax** 公司开发的AI助手。
我可以帮助你回答问题、提供信息、进行对话等各种任务。有什么我可以帮助你的吗?HTTP
示例代码
curl
curl -X POST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "MiniMax/MiniMax-M2.5",
"messages": [
{
"role": "user",
"content": "你是谁"
}
]
}'返回结果
{
"choices": [
{
"message": {
"content": "\n\n你好!我是一个AI助手,由MiniMax公司开发。我的名字是MiniMax-M2.1。\n\n我可以帮助你回答问题、提供信息、进行对话、协助写作、分析问题等各种任务。有什么我可以帮助你的吗?",
"reasoning_content": "用户用中文问\"你是谁\",意思是\"你是谁?\"或\"Who are you?\"\n\n我应该用中文回复,介绍我自己是一个AI助手。\n\n让我写一个简洁的自我介绍。",
"role": "assistant"
},
"finish_reason": "stop",
"index": 0,
"logprobs": null
}
],
"object": "chat.completion",
"usage": {
"prompt_tokens": 40,
"completion_tokens": 84,
"total_tokens": 124,
"completion_tokens_details": {
"reasoning_tokens": 36
}
},
"created": 1769161313,
"system_fingerprint": null,
"model": "MiniMax/MiniMax-M2.5",
"id": "chatcmpl-30d4de0f-92fe-93d2-a1bf-e8153ae937df"
}模型功能
模型 | |||||||
MiniMax/MiniMax-M2.5 | |||||||
MiniMax/MiniMax-M2.1 |
上下文缓存类型为隐式缓存,自动开启,与阿里云百炼的隐式缓存服务有以下不同:
命中缓存的输入 Token 折扣为 10%(百炼为 20%);
缓存最少 Token 数为 512(百炼为 256)。
参数默认值
模型 | temperature | top_p |
MiniMax/MiniMax-M2.5 | 1.0 | 0.95 |
MiniMax/MiniMax-M2.1 | 1.0 | 0.95 |
错误码
如果模型调用失败并返回报错信息,请参见错误信息进行解决。
该文章对您有帮助吗?