在MaxCompute中,若需要使用模型进行数据处理或离线推理且不希望自持GPU资源时,可以选择购买并使用MaxCompute 模型计算服务,以满足业务对模型推理及性能的需求。本文介绍如何购买和使用MaxCompute 模型计算服务。
适用范围
支持地域:当前仅以下地域支持开通模型计算服务。
华北2(北京)
支持模型
qwen3-max:通义千问系列高性能大语言模型,适用于复杂推理、内容生成等场景。text-embedding-v4:高精度文本向量化模型,适用于语义检索、聚类、相似度计算等场景。
计费规则
详情参见模型计算费用(Token费用)。
开通流程
每个地域仅需开通一次,开通后默认允许该地域所有项目使用。
登录MaxCompute控制台,在左上角选择地域。
在左侧导航栏,选择 。
在Quota管理页面,单击新购Quota。
在购买页面,商品类型选择模型计算服务。
在MaxCompute 模型计算服务页面,选择地域并确认服务协议后,确认开通服务。
购买完成后返回控制台,在Quota管理页面将会出现一个Quota名为
ai_InferenceQuota的按量付费配额。
使用指南
在MaxFrame作业中使用模型计算服务
使用MaxFrame AI Function,指定服务所支持的模型,即可使用MaxCompute 模型计算服务,示例:
from maxframe.learn.utils import read_odps_model
import maxframe.dataframe as md
llm = read_odps_model("qwen3-max")
# Prompts 模板
messages = [
{"role": "system", "content": "system_messages"},
{"role": "user", "content": "user_messages"}
]
query_list = [
"地球距离太阳的平均距离是多少?",
"美国独立战争是从哪一年开始的?",
"什么是水的沸点?",
"如何快速缓解头痛?",
"谁是《哈利·波特》系列中的主角?",
]
df = md.DataFrame({"query": query_list})
# 调用Generate接口
result_df = llm.generate(df, prompt_template=messages)
print(result_df.execute())更多语法说明及示例详见:MaxFrame AI Function。
在SQL作业中使用模型计算服务
使用SQL AI Function,指定服务所支持的模型,即可使用MaxCompute 模型计算服务,示例:
SET odps.namespace.schema=true;
SET odps.task.major.version=sql_modelstudio;
SELECT
prompt,
AI_GENERATE(
bigdata_public_modelset.default.`qwen3-max`,
DEFAULT_VERSION,
concat('请对以下评论进行情感分析分类,输出结果仅限于以下三个选项之一:正面、负面、中性。待分析的评论:', prompt)
) AS generated_text
FROM (
VALUES
('今天天气真好,心情很不错!阳光明媚,适合出去散步。'),
('今天天气真好,心情很不错!阳光明媚'),
('科技发展日新月异,人工智能改变生活。'),
('防控措施很到位,为医护人员点赞!'),
('这个商品质量很差')
) t (prompt);更多语法说明及示例详见:AI_GENERATE。
该文章对您有帮助吗?