无论是平台的预置模型还是您调优后的模型,您可通过部署获得独立的、资源专享的推理服务,以满足您对高并发、低延迟等不同性能的业务需求。
本文档仅适用于“中国内地(北京)”地域。
计费方式
部署前可以在模型部署控制台(北京)查看不同模型的预估每小时费用。
计费方式在服务创建后无法更改。如需切换,必须下线已经部署的模型后再重新部署。
预置吞吐 (高吞吐;高性能) | 模型单元 (自定义性能指标;资源隔离) | Token 用量 (调优后按量计费/效果验证) | |||
计费图示 |
|
|
| ||
支持模型 | 部分预置模型 | 部分预置模型与所有调优后模型 | 部分经过 LoRA 调优后的模型 | ||
使用场景 |
|
|
| ||
计费方式 | 按使用时长和预置吞吐 随用随付、包天 | 按使用时长和模型单元数量 随用随付、包月 | 按模型 Token 使用量 随用随付 | ||
扩缩容方式 | 自助增减吞吐量 | 自助增减模型单元数量 | 在控制台提交申请,等待人工审核。 | ||
优势 |
|
|
| ||
产品约束 |
|
|
| ||
如需查看单次调用的 Token 使用量及调用次数历史统计,请前往:模型监控(北京)。
计费详情
按使用时长计费(预置吞吐)
费用 = 使用时长 × (输入 TPM 单价 × 输入 TPM + 输出 TPM 单价 × 输出 TPM)
预付费订单支付后实时生效,有效期 N 天至第 N 天 23:59 结束。若在 22:00 后下单,到期日将自动顺延1天。
预付费订单到期后,将延后2小时停止服务,停止后资源保留14小时后释放。
预付费订单无法提前终止服务。
后付费时,如果账户欠费,部署的资源将保留并继续计费 24 小时,之后自动释放资源。
当模型输入超过最长输入 Token 或 超出购买的 TPM 量,相关调用将自动切换为按量付费的模型调用,推理性能可能下降,限流占用业务空间的公共流量,费用按模型调用(按量付费)标准计收。
此时,调用 API 返回 Header 将包含:
x-dashscope-ptu-overflow:true。TPM 统计请前往:模型监控(北京)。
模型名称 | 模型类型 | 最长上下文 (输入 Token + 输出 Token) | 最长输入 Token | 后付费-按小时 | 预付费-按天 | ||
输入(Per 10k TPM) | 输出(Per 1k TPM) | 输入(Per 10k TPM) | 输出(Per 1k TPM) | ||||
千问3-max-2025-09-23 | Instruct | 128,000 | 128,000 | ¥7.68 | ¥3.08 | ¥92.16 | ¥36.96 |
千问-plus-2025-12-01 | Instruct | ¥1.92 | ¥0.48 | ¥23.04 | ¥5.76 | ||
Thinking | ¥1.92 | ¥23.04 | |||||
千问-flash-2025-07-28 | Instruct/Thinking | ¥0.36 | ¥0.36 | ¥4.32 | ¥4.32 | ||
千问3-vl-plus-2025-09-23 | Instruct/Thinking | ¥2.40 | ¥2.40 | ¥28.80 | ¥28.80 | ||
DeepSeek-v3.2 | Instruct/Thinking | 64,000 | ¥7.20 | ¥1.08 | ¥86.40 | ¥12.96 | |
模型类型:
Instruct - 模型部署后以非思考模式进行推理。
Thinking - 模型部署后以思考模式进行推理。
按使用时长计费(模型单元)
费用 = 使用时长(小时)× 模型单元数量 × 模型单元单价
预付费购买的首月,如在首月内提前退订,日单价将按 1.2 倍计费
千问
模型名称 | 模型类型 | 支持限流 | 模型单元规格 | 最长上下文 | 后付费-按小时 (不满 1 分钟按 1 分钟计费) | 预付费-按天 (不满 1 天按 1 天计费) |
千问3-14B | Instruct/Thinking | I 型模型单元(MU1) | 固定为: 详情请参考:qwen-3 | ¥96/小时 | ¥46,000/月 | |
千问3-8B | Instruct/Thinking | |||||
千问2.5-开源版-14B | Instruct | 固定为: 详情请参考:qwen-2.5 | ||||
千问2.5-开源版-7B | Instruct | |||||
千问2-开源版-7B | Instruct | 固定为: | ||||
千问-Turbo-0624(2024) | Instruct | 固定为: | ||||
千问-Plus-2025-12-01 | Instruct/Thinking | I 型模型单元(MU1) | 可设置: 详情请参考:qwen-plus | ¥192/小时 | ¥92,000/月 | |
千问-Plus-2025-07-28 | Instruct/Thinking | |||||
千问-Flash-2025-07-28 | Instruct/Thinking | 可设置: 详情请参考:qwen-flash | ||||
千问-Plus-0723(2024) | Instruct | 固定为: | ||||
千问2.5-开源版-72B | Instruct | 固定为: 详情请参考:qwen-2.5 | ||||
千问2.5-开源版-32B | Instruct | |||||
千问2-开源版-72B | Instruct | 固定为: | ||||
千问3-32B | Instruct | 固定为: 详情请参考:qwen-3 | ||||
千问3-Max-2025-09-23 | Instruct | II 型 / III 型模型单元 (MU2/MU3) | 可设置: 详情请参考:qwen-max | I 型模型单元:¥448/小时 III 型模型单元:¥1048/小时 | I 型模型单元:¥216,000/月 III 型模型单元:¥504,000/月 | |
模型类型:
Instruct - 模型部署后以非思考模式进行推理。
Thinking - 模型部署后以思考模式进行推理。
千问VL
模型服务 | 模型类型 | 支持限流 | 模型单元规格 | 最长上下文 | 单价 (不满 1 分钟按 1 分钟计费) | 包月单价 (不满 1 天按 1 天计费) (如在首月内提前退订,日单价将按 1.2 倍计费) |
千问VL-Max-2025-08-13 | Instruct | VI 型模型单元(MU6) | 固定为: | ¥72/小时 | ¥34,800/月 | |
千问VL-Plus | Instruct | I 型模型单元(MU1) | 固定为: | ¥40/小时 | ¥20,000/月 | |
千问3-VL-8B-Instruct | Instruct | I 型模型单元(MU1) | 固定为: | ¥96/小时 | ¥46,000/月 | |
千问3-VL-8B-Thinking | Thinking | |||||
千问3-VL-4B-Instruct | Instruct | |||||
千问2.5-VL-7B | Instruct | |||||
千问VL-Max-0201(2024) | Instruct | 固定为: | ¥160/小时 | ¥80,000/月 | ||
千问3-VL-Flash-2025-10-15 | Instruct/Thinking | I 型模型单元(MU1) | 固定为: | ¥192/小时 | ¥92,000/月 | |
千问3-VL-Plus-2025-09-23 | Instruct/Thinking | |||||
千问3-VL-235B-A22B-Instruct | Instruct | 固定为: | ||||
千问3-VL-32B-Instruct | Instruct | |||||
千问2.5-VL-32B | Instruct | |||||
千问2.5-VL-72B | Instruct | |||||
模型类型:
Instruct - 模型部署后以非思考模式进行推理。
Thinking - 模型部署后以思考模式进行推理。
Instruct/Thinking - 可在模型部署时选择是否开启思考模式。
按模型 Token 使用量
费用 = 模型输入 Token 数 × 模型输入单价 + 模型输出 Token 数 × 模型输出单价(最小计费单位:1 token)
仅当对下列基础模型完成 SFT 高效训练并得到自定义模型后,才支持按模型 Token 使用量计费。
基础模型 | 模型类型 | 最长上下文 | 输入单价 | 输出单价 |
千问3-32B | Instruct | 固定为: 详情请参考:qwen-3 | ¥0.002/千Token | 非思考模式:¥0.008/千Token 思考模式:¥0.02/千Token |
千问3-14B | Instruct | ¥0.001/千Token | 非思考模式:¥0.004/千Token 思考模式:¥0.01/千Token | |
千问3-8B | Instruct | ¥0.0005/千Token | 非思考模式:¥0.002/千Token 思考模式:¥0.005/千Token | |
千问 2.5-72B | Instruct | 固定为: 详情请参考:qwen-2.5 | ¥0.004/千Token | ¥0.012/千Token |
千问 2.5-32B | Instruct | ¥0.002/千Token | ¥0.006/千Token | |
千问 2.5-14B | Instruct | ¥0.001/千Token | ¥0.003/千Token | |
千问 2.5-7B | Instruct | ¥0.0005/千Token | ¥0.001/千Token | |
千问2.5-VL-72B | Instruct | 固定为: | ¥0.016/千Token | ¥0.048/千Token |
千问2.5-VL-32B | Instruct | ¥0.008/千Token | ¥0.024/千Token | |
千问2.5-VL-7B | Instruct | ¥0.002/千Token | ¥0.005/千Token | |
千问 2-开源版-7B | Instruct | 固定为: | ¥0.001/千Token | ¥0.002/千Token |
图片、视频生成模型(预置)-按实例时长计费
费用 = 资源占用时长(小时)× 实例数量 × 实例单价(不满 1 小时按 1 小时计费)
图片生成
模型服务 | 模型类型 | 独占实例资源规格 | 后付费单价 | 预付费单价 (预付费) |
万相-文本生成图像-0521 | 预置模型 | 轻量版 | ¥20/实例/小时 | ¥10,000/月 |
视频生成
模型服务 | 模型类型 | 独占实例资源规格 | 后付费单价 | 预付费单价 (预付费) |
悦动人像EMO-detect | 预置模型 | 轻量版 | ¥20/实例/小时 | ¥10,000/月 |
悦动人像EMO | ||||
舞动人像AnimateAnyone-detect | ||||
舞动人像AnimateAnyone |
如果需要部署更多模型,请参考此解决方案并结合具体业务需求选择最适合的部署方案。
部署方法
您可以在控制台上部署模型,请参考以下操作步骤:
如果提示权限不足,请参考:部署时提示权限不足怎么办?
|
|
| |
重要 模型部署成功后将产生费用。 |
部署配置
模型单元
配置内容 | 配置详情 |
配置模型推理模式 | 部分模型在以模型单元方式部署时,可配置推理模式、最长上下文等。
|
最长上下文 | 部分模型的模型单元部署模式支持该设置。最长上下文长度基于模型类型。 |
服务限流 | 部分模型的模型单元部署模式支持该设置,可限制模型调用的 RPM、TPM。 |
部署后调用
模型部署成功后,支持通过 OpenAI 兼容、Dashscope及Assistant SDK进行调用。
在调用已部署成功的模型时,model的取值应为模型部署成功后的模型code。请前往模型部署控制台(北京)界面获取模型code。

示例代码以调用微调后的 qwen3-8b 模型为例:
模型特性(是否支持非流式输出、结构化输出等)与微调前的模型保持一致。
经过调优的深度思考模型在调用时是否开启深度思考,建议与调优数据格式一致:
调优数据含深度思考,调用时建议开启
enable_thinking参数。调优数据不含深度思考,调用时不建议开启
enable_thinking参数。
DashScope
import os
import dashscope
messages = [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "你是谁?"},
]
response = dashscope.Generation.call(
# 若没有配置环境变量,请用百炼API Key将下一行替换为:api_key="sk-xxx",
api_key=os.getenv("DASHSCOPE_API_KEY"),
model="qwen3-14b-xxx-xxx", # 请替换为模型部署成功后的code
messages=messages,
result_format="message",
enable_thinking=False,
)
print(response)
OpenAI兼容接口
import os
from openai import OpenAI
client = OpenAI(
# 若没有配置环境变量,请用百炼API Key将下一行替换为:api_key="sk-xxx",
api_key=os.getenv('DASHSCOPE_API_KEY'),
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
)
completion = client.chat.completions.create(
model="qwen3-14b-xxx-xxx", # 请替换为模型部署成功后的code
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "你是谁?"},
],
extra_body={"enable_thinking": False},
)
print(completion)
部署服务扩缩容
预置吞吐(按时长):点击扩缩容按钮,自助、手动调节实例数量。
模型单元(按时长):点击扩缩容按钮,自助、手动调节实例数量。
按 Token 调用量:点击扩容按钮,填写并提交扩容申请表单,等待人工审核。
部署服务下线
前往模型部署控制台(北京),找到要下线的部署服务,点击下线并确认。下线后将不再产生计费。

常见问题
可以上传和部署自己的模型吗?
支持在我的模型控制台(北京)导入部分开源模型,详细支持列表请参考:模型导入。
此外,阿里云人工智能平台 PAI 提供了部署自有模型的功能,您可以参考PAI-LLM大语言模型部署了解部署方法。
部署时提示权限不足怎么办?
如果显示“缺少该模块的权限”,请确保您的账号在该业务空间的权限管理页面中拥有模型部署-操作权限。

如果无法正常操作,请联系您的组织或 IT 管理员添加相关权限或代为检查权限问题。
如果部署时报错“xx业务空间没有部署xx模型的权限”,请前往百炼的业务空间管理页面,为对应业务空间添加对应模型的部署权限。
API 调用报错:
Workspace xxx does not have deployment privilege for model xxxx。

如果提示权限不足,请联系您的组织或 IT 管理员添加相关权限或代为操作。
该如何切换到其他的计费方式?
只能释放原有资源,再通过需要的计费方式创建新资源。
建议按照以下步骤进行切换:
使用需要的计费方式部署新的资源。
切换 API 并测试服务可用性。
下线释放原有资源。






