本文主要介绍如何通过AI网关访问部署在人工智能平台PAI的模型。
前提条件
当使用私网地址时,请确保云原生API网关与人工智能平台 PAI 部署的模型处于同一VPC。
通过PAI 部署 DeepSeek-R1 系列模型
模型选择与部署
进入Model Gallery页面。
登录PAI控制台。
在顶部左上角根据实际情况选择地域。
在左侧导航栏选择工作空间列表,单击指定工作空间名称,进入对应工作空间。
在左侧导航栏选择快速开始 > Model Gallery。
在Model Gallery页面右侧的模型列表中,找到需要部署的模型卡片,例如DeepSeek-R1-Distill-Qwen-32B模型,单击进入模型详情页面。
单击右上角部署,选择部署方式和部署资源后,即可一键部署,生成一个 PAI-EAS 服务。
如果部署DeepSeek-R1或DeepSeek-V3模型,您可以选择的机型包括:
单机-标准机型:ml.gu8v.c192m1024.8-gu120、ecs.gn8v-8x.48xlarge(公共资源,库存可能较紧张),ecs.ebmgn8v.48xlarge(无法通过公共资源使用,请购买EAS专属资源)
单机-GP7V机型:ml.gp7vf.16.40xlarge(公共资源,仅可竞价使用,当标准机型资源紧张时,请切换至华北6(乌兰察布)寻找GP7V资源,部署时请务必配置VPC)
如果对性能要求较高,可以使用分布式部署。
分布式-GU7X机型:4台ml.gu7xf.8xlarge-gu108 (公共资源,仅可竞价使用,请切换地域至华北6(乌兰察布)使用,部署时请务必配置VPC)
分布式-灵骏智算资源:需开通白名单使用,如需咨询请联系销售经理或提交工单。请切换地域至华北6(乌兰察布)使用,部署时请务必配置VPC。(PAI灵骏智算资源提供高性能、高弹性异构算力服务,资源利用率可提升3倍,详情请参见PAI灵骏智算服务概述)
获取 PAI - EAS 调用信息
模型部署完成后,您可参考如下步骤查看服务调用信息:请注意复制访问地址和Token,以便在云原生API网关实例中创建AI服务时使用。
在Model Gallery > 任务管理 > 部署任务中单击已部署的服务名称,进入服务详情页。
单击查看调用信息并在调用信息对话框的VPC地址调用页签,获取访问地址和Token。
默认推荐使用私网地址(VPC地址)创建AI服务。
AI网关的创建与配置
1. 创建AI服务
登录云原生API网关控制台。
在左侧导航栏,选择实例,并在顶部菜单栏选择地域。
在实例页面,单击目标网关实例名称。
在左侧导航栏,选择服务,并单击服务页签。
单击创建服务,在创建服务面板,参考如下信息配置AI服务:
服务来源:AI服务。
大模型供应商:OpenAI兼容(OpenAI Compatible)。
服务地址:填写获取 PAI - EAS 调用信息中的访问地址,并拼接
/v1
。API-KEY:填写获取 PAI - EAS 调用信息中的Token。
2. 创建AI API并发布
返回云原生API网关控制台首页,在左侧导航栏,选择API。
选择AI API页签,单击创建AI API。
在创建AI API控制面板中,配置AI API相关信息:
所属实例:选择您的云原生API网关实例。
服务列表:选择上述步骤:创建AI服务中新建的AI服务。
单击确定,完成AI API的创建并发布。
3. 调试AI API
创建并发布AI API后,您可通过单击页面的右上角的调试按钮进行测试。
在调试控制面板中,模型选择在PAI中部署的模型,在右侧模型返回页签下与大模型进行对话。
在模型返回页签下,使用的是
/v1/chat/completions
对话接口,如需使用其他接口,您可选择CURL命令或原始输出的方式通过 curl、SDK 调试。【示例】您可以使用CURL命令调用
completions
,具体操作步骤如下:在CURL命令页签下,复制云原生API网关提供的代码示例。
将代码示例中提供的
url
接口替换为/v1/completions
将代码示例中提供的
data(body)
部分修改为/v1/completions需要的格式:
- 本页导读 (1)
- 前提条件
- 通过PAI 部署 DeepSeek-R1 系列模型
- 模型选择与部署
- 获取 PAI - EAS 调用信息
- AI网关的创建与配置
- 1. 创建AI服务
- 2. 创建AI API并发布
- 3. 调试AI API