无论是平台的预置模型还是您调优后的模型,您可通过部署获得独立的、资源专享的推理服务,以满足您对高并发、低延迟等不同性能的业务需求。
本文档仅适用于“中国内地(北京)”地域。
计费方式
部署前可以在模型部署控制台(北京)查看不同模型的预估每小时费用。
计费方式在服务创建后无法更改。如需切换,必须下线已经部署的模型后再重新部署。
|
预置吞吐 (高吞吐;高性能) |
模型单元 (自定义性能指标;资源隔离) |
Token 用量 (调优后按量计费/效果验证) |
|||
|
计费图示 |
|
|
|
||
|
支持模型 |
部分预置模型 |
部分预置模型与所有调优后模型 |
部分经过 LoRA 调优后的模型 |
||
|
使用场景 |
|
|
|
||
|
计费方式 |
按使用时长和预置吞吐 随用随付、包天 |
按使用时长和模型单元数量 随用随付、包月 |
按模型 Token 使用量 随用随付 |
||
|
扩缩容方式 |
自助增减吞吐量 |
自助增减模型单元数量 |
在控制台提交申请,等待人工审核。 |
||
|
优势 |
|
|
|
||
|
产品约束 |
|
|
|
||
如需查看单次调用的 Token 使用量及调用次数历史统计,请前往:模型监控(北京)。
计费详情
按使用时长计费(预置吞吐)
费用 = 使用时长 × (输入 TPM 单价 × 输入 TPM + 输出 TPM 单价 × 输出 TPM)
-
预付费订单支付后实时生效,有效期 N 天至第 N 天 23:59 结束。若在 22:00 后下单,到期日将自动顺延1天。
-
预付费订单到期后,将延后2小时停止服务,停止后资源保留14小时后释放。
-
预付费订单无法提前终止服务。
-
后付费时,如果账户欠费,部署的资源将保留并继续计费 24 小时,之后自动释放资源。
当模型输入超过最长输入 Token 或 超出购买的 TPM 量,相关调用将自动切换为按量付费的模型调用,推理性能可能下降,限流占用业务空间的公共流量,费用按模型调用(按量付费)标准计收。
-
此时,调用 API 返回 Header 将包含:
x-dashscope-ptu-overflow:true。 -
TPM 统计请前往:模型监控(北京)。
|
模型名称 |
模型类型 |
最长上下文 (输入 Token + 输出 Token) |
最长输入 Token |
后付费-按小时 |
预付费-按天 |
||
|
输入(Per 10k TPM) |
输出(Per 1k TPM) |
输入(Per 10k TPM) |
输出(Per 1k TPM) |
||||
|
千问3-max-2025-09-23 |
Instruct |
128,000 |
128,000 |
¥7.68 |
¥3.08 |
¥92.16 |
¥36.96 |
|
千问-plus-2025-12-01 |
Instruct |
¥1.92 |
¥0.48 |
¥23.04 |
¥5.76 |
||
|
Thinking |
¥1.92 |
¥23.04 |
|||||
|
千问-flash-2025-07-28 |
Instruct/Thinking |
¥0.36 |
¥0.36 |
¥4.32 |
¥4.32 |
||
|
千问3-vl-plus-2025-09-23 |
Instruct/Thinking |
¥2.40 |
¥2.40 |
¥28.80 |
¥28.80 |
||
|
DeepSeek-v3.2 |
Instruct/Thinking |
64,000 |
¥7.20 |
¥1.08 |
¥86.40 |
¥12.96 |
|
模型类型:
-
Instruct - 模型部署后以非思考模式进行推理。
-
Thinking - 模型部署后以思考模式进行推理。
按使用时长计费(模型单元)
费用 = 使用时长(小时)× 模型单元数量 × 模型单元单价
-
预付费购买的首月,如在首月内提前退订,日单价将按 1.2 倍计费
千问
|
模型名称 |
模型类型 |
支持限流 |
模型单元规格 |
最长上下文 |
后付费-按小时 (不满 1 分钟按 1 分钟计费) |
预付费-按天 (不满 1 天按 1 天计费) |
|
千问3-14B |
Instruct/Thinking |
|
I 型模型单元(MU1) |
固定为: 详情请参考:qwen-3 |
¥96/小时 |
¥46,000/月 |
|
千问3-8B |
Instruct/Thinking |
|
||||
|
千问2.5-开源版-14B |
Instruct |
|
固定为: 详情请参考:qwen-2.5 |
|||
|
千问2.5-开源版-7B |
Instruct |
|
||||
|
千问2-开源版-7B |
Instruct |
|
固定为: |
|||
|
千问-Turbo-0624(2024) |
Instruct |
|
固定为: |
|||
|
千问-Plus-2025-12-01 |
Instruct/Thinking |
|
I 型模型单元(MU1) |
可设置: 详情请参考:qwen-plus |
¥192/小时 |
¥92,000/月 |
|
千问-Plus-2025-07-28 |
Instruct/Thinking |
|
||||
|
千问-Flash-2025-07-28 |
Instruct/Thinking |
|
可设置: 详情请参考:qwen-flash |
|||
|
千问-Plus-0723(2024) |
Instruct |
|
固定为: |
|||
|
千问2.5-开源版-72B |
Instruct |
|
固定为: 详情请参考:qwen-2.5 |
|||
|
千问2.5-开源版-32B |
Instruct |
|
||||
|
千问2-开源版-72B |
Instruct |
|
固定为: |
|||
|
千问3-32B |
Instruct |
|
固定为: 详情请参考:qwen-3 |
|||
|
千问3-Max-2025-09-23 |
Instruct |
|
II 型 / III 型模型单元 (MU2/MU3) |
可设置: 详情请参考:qwen-max |
I 型模型单元:¥448/小时 III 型模型单元:¥1048/小时 |
I 型模型单元:¥216,000/月 III 型模型单元:¥504,000/月 |
模型类型:
-
Instruct - 模型部署后以非思考模式进行推理。
-
Thinking - 模型部署后以思考模式进行推理。
千问VL
|
模型服务 |
模型类型 |
支持限流 |
模型单元规格 |
最长上下文 |
单价 (不满 1 分钟按 1 分钟计费) |
包月单价 (不满 1 天按 1 天计费) (如在首月内提前退订,日单价将按 1.2 倍计费) |
|
千问VL-Max-2025-08-13 |
Instruct |
|
VI 型模型单元(MU6) |
固定为: |
¥72/小时 |
¥34,800/月 |
|
千问VL-Plus |
Instruct |
|
I 型模型单元(MU1) |
固定为: |
¥40/小时 |
¥20,000/月 |
|
千问3-VL-8B-Instruct |
Instruct |
|
I 型模型单元(MU1) |
固定为: |
¥96/小时 |
¥46,000/月 |
|
千问3-VL-8B-Thinking |
Thinking |
|
||||
|
千问3-VL-4B-Instruct |
Instruct |
|
||||
|
千问2.5-VL-7B |
Instruct |
|
||||
|
千问VL-Max-0201(2024) |
Instruct |
|
固定为: |
¥160/小时 |
¥80,000/月 |
|
|
千问3-VL-Flash-2025-10-15 |
Instruct/Thinking |
|
I 型模型单元(MU1) |
固定为: |
¥192/小时 |
¥92,000/月 |
|
千问3-VL-Plus-2025-09-23 |
Instruct/Thinking |
|
||||
|
千问3-VL-235B-A22B-Instruct |
Instruct |
|
固定为: |
|||
|
千问3-VL-32B-Instruct |
Instruct |
|
||||
|
千问2.5-VL-32B |
Instruct |
|
||||
|
千问2.5-VL-72B |
Instruct |
|
||||
模型类型:
-
Instruct - 模型部署后以非思考模式进行推理。
-
Thinking - 模型部署后以思考模式进行推理。
-
Instruct/Thinking - 可在模型部署时选择是否开启思考模式。
按模型 Token 使用量
费用 = 模型输入 Token 数 × 模型输入单价 + 模型输出 Token 数 × 模型输出单价(最小计费单位:1 token)
-
仅当对下列基础模型完成 SFT 高效训练并得到自定义模型后,才支持按模型 Token 使用量计费。
|
基础模型 |
模型类型 |
最长上下文 |
输入单价 |
输出单价 |
|
千问3-32B |
Instruct |
固定为: 详情请参考:qwen-3 |
¥0.002/千Token |
非思考模式:¥0.008/千Token 思考模式:¥0.02/千Token |
|
千问3-14B |
Instruct |
¥0.001/千Token |
非思考模式:¥0.004/千Token 思考模式:¥0.01/千Token |
|
|
千问3-8B |
Instruct |
¥0.0005/千Token |
非思考模式:¥0.002/千Token 思考模式:¥0.005/千Token |
|
|
千问 2.5-72B |
Instruct |
固定为: 详情请参考:qwen-2.5 |
¥0.004/千Token |
¥0.012/千Token |
|
千问 2.5-32B |
Instruct |
¥0.002/千Token |
¥0.006/千Token |
|
|
千问 2.5-14B |
Instruct |
¥0.001/千Token |
¥0.003/千Token |
|
|
千问 2.5-7B |
Instruct |
¥0.0005/千Token |
¥0.001/千Token |
|
|
千问2.5-VL-72B |
Instruct |
固定为: |
¥0.016/千Token |
¥0.048/千Token |
|
千问2.5-VL-32B |
Instruct |
¥0.008/千Token |
¥0.024/千Token |
|
|
千问2.5-VL-7B |
Instruct |
¥0.002/千Token |
¥0.005/千Token |
|
|
千问 2-开源版-7B |
Instruct |
固定为: |
¥0.001/千Token |
¥0.002/千Token |
图片、视频生成模型(预置)-按实例时长计费
费用 = 资源占用时长(小时)× 实例数量 × 实例单价(不满 1 小时按 1 小时计费)
图片生成
|
模型服务 |
模型类型 |
独占实例资源规格 |
后付费单价 |
预付费单价 (预付费) |
|
万相-文本生成图像-0521 |
预置模型 |
轻量版 |
¥20/实例/小时 |
¥10,000/月 |
视频生成
|
模型服务 |
模型类型 |
独占实例资源规格 |
后付费单价 |
预付费单价 (预付费) |
|
悦动人像EMO-detect |
预置模型 |
轻量版 |
¥20/实例/小时 |
¥10,000/月 |
|
悦动人像EMO |
||||
|
舞动人像AnimateAnyone-detect |
||||
|
舞动人像AnimateAnyone |
如果需要部署更多模型,请参考此解决方案并结合具体业务需求选择最适合的部署方案。
部署方法
您可以在控制台上部署模型,请参考以下操作步骤:
如果提示权限不足,请参考:部署时提示权限不足怎么办?
|
|
|
|
重要
模型部署成功后将产生费用。 |
部署配置
模型单元
|
配置内容 |
配置详情 |
|
配置模型推理模式 |
部分模型在以模型单元方式部署时,可配置推理模式、最长上下文等。
|
|
最长上下文 |
部分模型的模型单元部署模式支持该设置。最长上下文长度基于模型类型。 |
|
服务限流 |
部分模型的模型单元部署模式支持该设置,可限制模型调用的 RPM、TPM。 |
部署后调用
模型部署成功后,支持通过 OpenAI 兼容、Dashscope及Assistant SDK进行调用。
在调用已部署成功的模型时,model的取值应为模型部署成功后的模型code。请前往模型部署控制台(北京)界面获取模型code。

示例代码以调用微调后的 qwen3-8b 模型为例:
模型特性(是否支持非流式输出、结构化输出等)与微调前的模型保持一致。
经过调优的深度思考模型在调用时是否开启深度思考,建议与调优数据格式一致:
-
调优数据含深度思考,调用时建议开启
enable_thinking参数。 -
调优数据不含深度思考,调用时不建议开启
enable_thinking参数。
DashScope
import os
import dashscope
messages = [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "你是谁?"},
]
response = dashscope.Generation.call(
# 若没有配置环境变量,请用百炼API Key将下一行替换为:api_key="sk-xxx",
api_key=os.getenv("DASHSCOPE_API_KEY"),
model="qwen3-14b-xxx-xxx", # 请替换为模型部署成功后的code
messages=messages,
result_format="message",
enable_thinking=False,
)
print(response)
OpenAI兼容接口
import os
from openai import OpenAI
client = OpenAI(
# 若没有配置环境变量,请用百炼API Key将下一行替换为:api_key="sk-xxx",
api_key=os.getenv('DASHSCOPE_API_KEY'),
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
)
completion = client.chat.completions.create(
model="qwen3-14b-xxx-xxx", # 请替换为模型部署成功后的code
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "你是谁?"},
],
extra_body={"enable_thinking": False},
)
print(completion)
部署服务扩缩容
-
预置吞吐(按时长):点击扩缩容按钮,自助、手动调节实例数量。
-
模型单元(按时长):点击扩缩容按钮,自助、手动调节实例数量。
-
按 Token 调用量:点击扩容按钮,填写并提交扩容申请表单,等待人工审核。
部署服务下线
前往模型部署控制台(北京),找到要下线的部署服务,点击下线并确认。下线后将不再产生计费。

常见问题
可以上传和部署自己的模型吗?
支持在我的模型控制台(北京)导入部分开源模型,详细支持列表请参考:模型导入。
此外,阿里云人工智能平台 PAI 提供了部署自有模型的功能,您可以参考PAI-LLM大语言模型部署了解部署方法。
部署时提示权限不足怎么办?
-
如果显示“缺少该模块的权限”,请确保您的账号在该业务空间的权限管理页面中拥有模型部署-操作权限。

如果无法正常操作,请联系您的组织或 IT 管理员添加相关权限或代为检查权限问题。
-
如果部署时报错“xx业务空间没有部署xx模型的权限”,请前往百炼的业务空间管理页面,为对应业务空间添加对应模型的部署权限。
API 调用报错:
Workspace xxx does not have deployment privilege for model xxxx。

如果提示权限不足,请联系您的组织或 IT 管理员添加相关权限或代为操作。
该如何切换到其他的计费方式?
只能释放原有资源,再通过需要的计费方式创建新资源。
建议按照以下步骤进行切换:
-
使用需要的计费方式部署新的资源。
-
切换 API 并测试服务可用性。
-
下线释放原有资源。






