介绍阿里云百炼与 Hologres 的打通方式:通过 API Key 在 Hologres 中部署百炼模型,使用 AI Function 调用,数据不出库即可完成 AI 开发。
介绍
阿里云百炼是一站式大模型开发与应用平台,集成了千问及主流第三方模型,为开发者提供兼容 OpenAI 的 API 及全链路模型服务,同时提供可视化应用构建能力。阿里云百炼提供开箱即用的模型服务,无需自行部署或运维,即可直接调用千问(Qwen)全系列模型。
Hologres 与阿里云百炼深度打通,通过 API Key 即可在 Hologres 中部署百炼模型,然后使用 AI Function 调用百炼模型,数据不出库即可完成 AI 开发、构建 AI 应用。
费用说明
使用限制
支持的实例版本:Hologres V4.0.18 及以上版本、Hologres V4.1.2 及以上版本。
支持的地域:当前仅支持乌兰察布和北京地域。
模型列表与参数说明
部署模型
在Hologres管理控制台,进入实例列表,进入目标实例后,在实例详情页顶部选择 AI模型,在 模型列表 页面可一键部署百炼模型,选择模型提供方为 阿里云百炼 并填写相关参数。主要配置包括:
模型类别:当前支持部署的百炼模型,详见下方模型列表,不在列表中的模型暂不支持。
API_KEY:使用阿里云百炼前需开通百炼并获取 API Key 作为鉴权凭证,部署时填写该 API Key。获取方式详见获取API Key。
参数说明
不同模型类别支持的参数如下,完整说明以百炼控制台与 API 文档为准。
文本类模型:
max_tokens 为本次请求返回的最大 Token 数,模型能支持的最大 token 数见百炼官网说明;
temperature 为采样温度,控制生成多样性,取值范围 [0, 2.0);
top_p 为核采样概率阈值,取值范围 (0, 1.0]。temperature 与 top_p 均能控制多样性,建议只设置其中一个。
Qwen-Omni 系列:除通用文本参数外,支持 modalities(指定输出为文本或音频)、audio.voice(输出音频音色)、audio.format(音频格式,支持 wav)。
翻译类模型:为提升翻译效果,可以填写如下参数,完整使用见翻译模型。
source_lang: 源语言语种,详情语言列表。
terms: 翻译术语,支持使用JSON格式填写多个术语
tm_list: 翻译记忆,该字段提供“源文-译文”句对作为示例,JSON格式。
domains: 领域提示,通过文本传入对应的提示。
使用示例:
{ "extra_body": { "translation_options": { "source_lang": "zh", "domains": "The sentence is from Ali Cloud IT domain. ", "terms": [ {"source": "生物传感器", "target": "biological sensor"}, {"source": "身体健康状况", "target": "health status of the body"} ], "tm_list":[ {"source": "您可以通过如下方式查看集群的内核版本信息:", "target": "You can use one of the following methods to query the engine version of a cluster:"}, {"source": "bla", "target": "bla"} ] } } }embedding类模型:dimension 为向量维度,仅部分模型可修改,详细使用参见向量化模型。
text-embedding-v4 支持 2,048、1,536、1,024(默认)、768、512、256、128、64;
text-embedding-v3 支持 1,024(默认)、768、512、256、128 或 64;
qwen3-vl-embedding 支持 2,560(默认)、2,048、1,536、1,024、768、512、256。
模型重试机制
部署时可配置调用失败时的重试行为,参数如下。
max_retries:最大重试次数,默认 2,取值范围 [0, 100]。
initial_retry_delay:初始重试延迟(秒),默认 0.5,取值范围 [0.5, 8]。
max_retry_delay:最大重试延迟(秒),默认 8,取值范围 [1, 60]。
timeout:单次请求超时时间(秒),默认 600,取值范围 [1, 1200]。
模型列表
百炼支持文本生成、翻译、向量嵌入及多模态等类型模型。下表列出各模型的分类、model_type、task 类型、输入输出、备注及跨域支持情况。
模型分类 | model_type | task 类型 | 输入输出 | 备注 | 是否跨域支持 |
文本生成 | qwen3-max | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 |
qwen3-max-2026-01-23 | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen3-max-preview | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen-max | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen-max-latest | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen-plus | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen-plus-latest | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen-flash | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen-long | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen-long-latest | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwq-plus | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwq-plus-latest | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
deepseek-v3.2 | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
deepseek-v3.2-exp | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
deepseek-v3.1 | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
deepseek-r1 | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
deepseek-r1-0528 | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
deepseek-v3 | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
deepseek-r1-distill-qwen-1.5b | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
deepseek-r1-distill-qwen-7b | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
deepseek-r1-distill-qwen-14b | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
deepseek-r1-distill-qwen-32b | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
kimi-k2-thinking | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
Moonshot-Kimi-K2-Instruct | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
glm-4.6 | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
glm-4.7 | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
glm-5 | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
MiniMax-M2.1 | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
MiniMax-M2.5 | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
MiniMax/MiniMax-M2.1 | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
MiniMax/MiniMax-M2.5 | chat/completions | 支持 text 输入,text 输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen3-vl-235b-a22b-instruct | chat/completions | 支持 image/video 作为输入,text 作为输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen3-vl-235b-a22b-thinking | chat/completions | 支持 image/video 作为输入,text 作为输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen3-vl-32b-instruct | chat/completions | 支持 image/video 作为输入,text 作为输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen3-vl-32b-thinking | chat/completions | 支持 image/video 作为输入,text 作为输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen3-vl-8b-instruct | chat/completions | 支持 image/video 作为输入,text 作为输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen3-vl-8b-thinking | chat/completions | 支持 image/video 作为输入,text 作为输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen3-vl-plus | chat/completions | 支持 image/video 作为输入,text 作为输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen3-vl-flash | chat/completions | 支持 image/video 作为输入,text 作为输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen-vl-ocr | chat/completions | 支持 image 作为输入,text 作为输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen-vl-ocr-latest | chat/completions | 支持 image 作为输入,text 作为输出 | 支持参数:temperature、top_p、max_tokens | 是 | |
qwen3-omni-flash | chat/completions | 支持 text/image/audio/video 作为输入,text/audio 作为输出 | 支持参数:temperature、top_p、max_tokens,并支持参数:modalities 和 audio | 是 | |
翻译 | qwen-mt-plus | translation | ai_translate | 支持参数:source_lang、terms、tm_list、domains | 是 |
qwen-mt-flash | translation | ai_translate | — | 是 | |
qwen-mt-turbo | translation | ai_translate | — | 是 | |
qwen-mt-lite | translation | ai_translate | — | 是 | |
向量嵌入 | text-embedding-v1 | embedding | ai_embed,text 输入,float[] 输出 | 向量维度:1,536 | 是 |
text-embedding-v2 | embedding | ai_embed,text 输入,float[] 输出 | 向量维度:1,536 | 是 | |
text-embedding-v3 | embedding | ai_embed,text 输入,float[] 输出 | 向量维度:2,048、1,536、1,024(默认)、768、512、256、128、64 | 是 | |
text-embedding-v4 | embedding | ai_embed,text 输入,float[] 输出 | 向量维度:1,024(默认)、768、512、256、128 或 64 | 是 | |
tongyi-embedding-vision-plus | embedding | ai_embed,text/image/video 输入,float[] 输出 | 向量维度:1,152;视频类不支持非北京/新加坡 region | 图片可以,视频不行 | |
tongyi-embedding-vision-flash | embedding | ai_embed,text/image/video 输入,float[] 输出 | 向量维度:768;视频类不支持非北京/新加坡 region | 图片可以,视频不行 | |
multimodal-embedding-v1 | embedding | ai_embed,text/image/video 输入,float[] 输出 | 向量维度:1,024;视频类不支持非北京/新加坡 region | 图片可以,视频不行 | |
qwen3-vl-embedding | embedding | ai_embed,text/image/video 输入,float[] 输出 | 向量维度:2,560(默认)、2,048、1,536、1,024、768、512、256 | 图片可以,视频不行 |
模型使用
部署成功后,可在 Hologres 中使用 AI Function 调用对应模型,数据不出库即可完成推理与构建 AI 应用。使用方式请参见AI Function,最佳实践请参见最佳实践:自动驾驶图像高性能分析系统。