百炼模型

更新时间:
复制为 MD 格式

介绍阿里云百炼与 Hologres 的打通方式:通过 API Key 在 Hologres 中部署百炼模型,使用 AI Function 调用,数据不出库即可完成 AI 开发。

介绍

阿里云百炼是一站式大模型开发与应用平台,集成了千问及主流第三方模型,为开发者提供兼容 OpenAI 的 API 及全链路模型服务,同时提供可视化应用构建能力。阿里云百炼提供开箱即用的模型服务,无需自行部署或运维,即可直接调用千问(Qwen)全系列模型。

Hologres 与阿里云百炼深度打通,通过 API Key 即可在 Hologres 中部署百炼模型,然后使用 AI Function 调用百炼模型,数据不出库即可完成 AI 开发、构建 AI 应用。

费用说明

  • 网络费:百炼的 region 为北京/新加坡,Hologres 实例调用百炼可能产生网络打通费用。当前 Hologres 调用百炼模型属于 beta 阶段,暂不收取网络费用,具体开始收费时间以官网通知为准。

  • 模型调用费:调用百炼模型由百炼收取模型调用费,按模型调用量计费,详见模型调用计费百炼控制台

使用限制

  • 支持的实例版本:Hologres V4.0.18 及以上版本、Hologres V4.1.2 及以上版本。

  • 支持的地域:当前仅支持乌兰察布和北京地域。

模型列表与参数说明

部署模型

Hologres管理控制台,进入实例列表,进入目标实例后,在实例详情页顶部选择 AI模型,在 模型列表 页面可一键部署百炼模型,选择模型提供方为 阿里云百炼 并填写相关参数。主要配置包括:

  • 模型类别:当前支持部署的百炼模型,详见下方模型列表,不在列表中的模型暂不支持。

  • API_KEY:使用阿里云百炼前需开通百炼并获取 API Key 作为鉴权凭证,部署时填写该 API Key。获取方式详见获取API Key

  • 模型参数配置:选择模型类别后,可为该模型填写参数以更好适配业务,详见下方参数说明,另支持模型重试机制配置。

参数说明

不同模型类别支持的参数如下,完整说明以百炼控制台与 API 文档为准。

  • 文本类模型

    • max_tokens 为本次请求返回的最大 Token 数,模型能支持的最大 token 数见百炼官网说明

    • temperature 为采样温度,控制生成多样性,取值范围 [0, 2.0);

    • top_p 为核采样概率阈值,取值范围 (0, 1.0]。temperature 与 top_p 均能控制多样性,建议只设置其中一个。

    • Qwen-Omni 系列:除通用文本参数外,支持 modalities(指定输出为文本或音频)、audio.voice(输出音频音色)、audio.format(音频格式,支持 wav)。

  • 翻译类模型:为提升翻译效果,可以填写如下参数,完整使用见翻译模型

    • source_lang: 源语言语种,详情语言列表

    • terms: 翻译术语,支持使用JSON格式填写多个术语

    • tm_list: 翻译记忆,该字段提供“源文-译文”句对作为示例,JSON格式。

    • domains: 领域提示,通过文本传入对应的提示。

    使用示例:

    {
      "extra_body": {
        "translation_options": {
          "source_lang": "zh", 
          "domains": "The sentence is from Ali Cloud IT domain. ", 
          "terms": [
            {"source": "生物传感器", "target": "biological sensor"},
            {"source": "身体健康状况", "target": "health status of the body"}
          ], 
          "tm_list":[
            {"source": "您可以通过如下方式查看集群的内核版本信息:", "target": "You can use one of the following methods to query the engine version of a cluster:"},
            {"source": "bla", "target": "bla"}
          ]
        }
      }
    }
  • embedding类模型:dimension 为向量维度,仅部分模型可修改,详细使用参见向量化模型

    • text-embedding-v4 支持 2,048、1,536、1,024(默认)、768、512、256、128、64;

    • text-embedding-v3 支持 1,024(默认)、768、512、256、128 或 64;

    • qwen3-vl-embedding 支持 2,560(默认)、2,048、1,536、1,024、768、512、256。

模型重试机制

部署时可配置调用失败时的重试行为,参数如下。

  • max_retries:最大重试次数,默认 2,取值范围 [0, 100]。

  • initial_retry_delay:初始重试延迟(秒),默认 0.5,取值范围 [0.5, 8]。

  • max_retry_delay:最大重试延迟(秒),默认 8,取值范围 [1, 60]。

  • timeout:单次请求超时时间(秒),默认 600,取值范围 [1, 1200]。

模型列表

百炼支持文本生成、翻译、向量嵌入及多模态等类型模型。下表列出各模型的分类、model_type、task 类型、输入输出、备注及跨域支持情况。

模型分类

model_type

task 类型

输入输出

备注

是否跨域支持

文本生成

qwen3-max

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

qwen3-max-2026-01-23

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

qwen3-max-preview

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

qwen-max

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

qwen-max-latest

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

qwen-plus

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

qwen-plus-latest

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

qwen-flash

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

qwen-long

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

qwen-long-latest

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

qwq-plus

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

qwq-plus-latest

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

deepseek-v3.2

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

deepseek-v3.2-exp

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

deepseek-v3.1

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

deepseek-r1

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

deepseek-r1-0528

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

deepseek-v3

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

deepseek-r1-distill-qwen-1.5b

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

deepseek-r1-distill-qwen-7b

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

deepseek-r1-distill-qwen-14b

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

deepseek-r1-distill-qwen-32b

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

kimi-k2-thinking

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

Moonshot-Kimi-K2-Instruct

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

glm-4.6

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

glm-4.7

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

glm-5

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

MiniMax-M2.1

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

MiniMax-M2.5

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

MiniMax/MiniMax-M2.1

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

MiniMax/MiniMax-M2.5

chat/completions

支持 text 输入,text 输出

支持参数:temperature、top_p、max_tokens

qwen3-vl-235b-a22b-instruct

chat/completions

支持 image/video 作为输入,text 作为输出

支持参数:temperature、top_p、max_tokens

qwen3-vl-235b-a22b-thinking

chat/completions

支持 image/video 作为输入,text 作为输出

支持参数:temperature、top_p、max_tokens

qwen3-vl-32b-instruct

chat/completions

支持 image/video 作为输入,text 作为输出

支持参数:temperature、top_p、max_tokens

qwen3-vl-32b-thinking

chat/completions

支持 image/video 作为输入,text 作为输出

支持参数:temperature、top_p、max_tokens

qwen3-vl-8b-instruct

chat/completions

支持 image/video 作为输入,text 作为输出

支持参数:temperature、top_p、max_tokens

qwen3-vl-8b-thinking

chat/completions

支持 image/video 作为输入,text 作为输出

支持参数:temperature、top_p、max_tokens

qwen3-vl-plus

chat/completions

支持 image/video 作为输入,text 作为输出

支持参数:temperature、top_p、max_tokens

qwen3-vl-flash

chat/completions

支持 image/video 作为输入,text 作为输出

支持参数:temperature、top_p、max_tokens

qwen-vl-ocr

chat/completions

支持 image 作为输入,text 作为输出

支持参数:temperature、top_p、max_tokens

qwen-vl-ocr-latest

chat/completions

支持 image 作为输入,text 作为输出

支持参数:temperature、top_p、max_tokens

qwen3-omni-flash

chat/completions

支持 text/image/audio/video 作为输入,text/audio 作为输出

支持参数:temperature、top_p、max_tokens,并支持参数:modalities 和 audio

翻译

qwen-mt-plus

translation

ai_translate

支持参数:source_lang、terms、tm_list、domains

qwen-mt-flash

translation

ai_translate

qwen-mt-turbo

translation

ai_translate

qwen-mt-lite

translation

ai_translate

向量嵌入

text-embedding-v1

embedding

ai_embed,text 输入,float[] 输出

向量维度:1,536

text-embedding-v2

embedding

ai_embed,text 输入,float[] 输出

向量维度:1,536

text-embedding-v3

embedding

ai_embed,text 输入,float[] 输出

向量维度:2,048、1,536、1,024(默认)、768、512、256、128、64

text-embedding-v4

embedding

ai_embed,text 输入,float[] 输出

向量维度:1,024(默认)、768、512、256、128 或 64

tongyi-embedding-vision-plus

embedding

ai_embed,text/image/video 输入,float[] 输出

向量维度:1,152;视频类不支持非北京/新加坡 region

图片可以,视频不行

tongyi-embedding-vision-flash

embedding

ai_embed,text/image/video 输入,float[] 输出

向量维度:768;视频类不支持非北京/新加坡 region

图片可以,视频不行

multimodal-embedding-v1

embedding

ai_embed,text/image/video 输入,float[] 输出

向量维度:1,024;视频类不支持非北京/新加坡 region

图片可以,视频不行

qwen3-vl-embedding

embedding

ai_embed,text/image/video 输入,float[] 输出

向量维度:2,560(默认)、2,048、1,536、1,024、768、512、256

图片可以,视频不行

模型使用

部署成功后,可在 Hologres 中使用 AI Function 调用对应模型,数据不出库即可完成推理与构建 AI 应用。使用方式请参见AI Function,最佳实践请参见最佳实践:自动驾驶图像高性能分析系统