通过AI 网关接入DeepSeek

本文基于三种AI 模型接入场景,介绍如何通过AI 网关快速实现第三方 DeepSeek 模型的统一接入。

场景概览

场景

描述

集成模型接入AI 网关

支持通过选择已集成的部分大模型供应商及配置 API-KEY 的方式直接接入使用。

通用模型方式接入AI 网关

支持通过配置自定义AI 服务地址且满足 OpenAI 接入标准的AI 服务。

AI 网关多模型代理

支持通过网关已集成的部分大模型供应商和配置自定义AI 服务地址接入使用。

前提条件

场景一:集成模型接入AI 网关

当前AI 网关中已经集成部分大模型供应商,该类模型可通过选择供应商及配置 API-KEY 直接接入。

展开集成的大模型

  • 阿里云百炼

  • DeepSeek

  • OpenAI

  • Azure

  • Claude

  • 月之暗面

  • 百川智能

  • 零一万物

  • 智谱AI

  • 混元

  • 阶跃星辰

  • 星火

  • 豆包(火山引擎)

  • MiniMax

  • Gemini

1. 创建AI 服务

  1. 登录AI网关控制台

  2. 在左侧导航栏,选择实例,并在顶部菜单栏选择地域。

  3. 实例页面,单击目标网关实例ID。

  4. 在左侧导航栏,选择服务,并单击服务页签。

  5. 单击创建服务,在创建服务面板,参考如下信息配置AI 服务,以阿里云百炼配置示例。

    • 服务来源AI服务

    • 服务名称:填写创建网关服务的名称,如aliyun-deepseek。

    • 大模型供应商:选择对应的模型供应商,如阿里云百炼

    • 服务地址(base_url):使用阿里云百炼默认配置,如https://dashscope.aliyuncs.com/compatible-model/v1

    • API-KEY:填写模型供应商获取的请求凭证 API-KEY 。

      说明

      如果使用阿里云百炼,请在阿里云百炼API-KEY 获取。其他大模型供应商,请咨询对应的服务供应商。

    image

2. 创建LLM API

  1. 登录AI网关控制台

  2. 在左侧导航栏,选择实例,并在顶部菜单栏选择地域。

  3. 实例页面,单击目标网关实例ID。

  4. 在左侧导航栏,选择LLM API,然后单击创建LLM API

  5. 创建LLM API面板中,配置基本信息如下:

    • 域名:建议配置域名(使用默认环境域名下存在限流)。

    • Base Path:API的基本路径。

    • AI请求观测:开启。

    • 服务模型:单模型服务。

    • 服务列表:配置如下:

      • 服务名称:选择上一步中配置的阿里云百炼 DeepSeek 服务。

      • 模型名称:选择透传。

      image

3. 调试LLM API

  1. 登录AI网关控制台

  2. 在左侧导航栏,选择实例,并在顶部菜单栏选择地域。

  3. 实例页面,单击目标网关实例ID。

  4. 在左侧导航栏,选择LLM API,单击目标 LLM API 操作列下的调试。在调试面板中,配置相关参数进行调试。

  5. 模型选择deepseek-r1,在右侧模型返回页签下与阿里云百炼的 DeepSeek 进行对话。

    重要

    在模型返回页签下,使用的是/v1/chat/completions对话接口,如需使用其他接口,您可选择CURL命令原始输出的方式通过 curl 、SDK 调试。

    image

场景二:通用模型方式接入AI 网关

您可通过自定义服务地址方式,将通用模型接入AI 网关且支持如下情况。

  • 对于AI 网关中未集成大模型供应商,且该模型支持 OpenAI 协议。

  • 对于通过在阿里云人工智能平台PAI 或者函数计算FC等方式部署的 DeepSeek 服务。

本场景,可直接参考通过AI 网关接入PAI部署模型进行接入。

场景三:AI 网关多模型代理

1. 创建AI 服务

当前AI 网关支持同时基于已集成模型和通用模型的方式接入,提供多模型代理服务,并支持调用异常情况下 Fallback 。在该场景下,用户使用统一调用方式,同时调用不同的三方模型服务。

基于场景一场景二分别完成三个网关AI 服务配置(阿里云百炼、火山引擎、PAI),火山引擎的服务配置可参考图示配置。

image

2. 创建LLM API

  1. 登录AI网关控制台

  2. 在左侧导航栏,选择实例,并在顶部菜单栏选择地域。

  3. 实例页面,单击目标网关实例ID。

  4. 在左侧导航栏,选择LLM API,然后单击创建LLM API

  5. 创建LLM API面板中,配置基本信息如下:

    • 服务模型多模型服务(按模型名称)

    • 服务列表:添加下列多个服务。

      • 选择上一步中配置的阿里云 DeepSeek 服务,模型名称匹配规则配置为deepseek-*

      • 选择上一步中配置的火山引擎 DeepSeek 服务,模型名称匹配规则配置为ep-*

    • Fallback:开启。

    • Fallback列表: 选择上一步中配置的 PAI DeepSeek 服务,模型名称配置为DeepSeek-R1-Distill-Qwen-1.5B

    image

    说明

    如上图所示的配置会按照下列规则执行:

    • 模型为deepseek-*时调用阿里云 DeepSeek 。

    • 模型为ep-*时调用火山引擎 DeepSeek 。

    • 在其他模型出错或限流场景下调用 PAI DeepSeek-R1-Distill-Qwen-1.5B(如配置多个Fallback,则按顺序调用)。

3. 调试LLM API

  1. 单击目标 LLM API 操作列下的调试。在调试面板中,配置相关参数进行调试。

    模型选择deepseek-v3ep-20250219155230-28l6f(以火山引擎侧实际获取的模型为准)时,会按照规则响应阿里云百炼、火山引擎。

    重要

    在模型返回页签下,使用的是/v1/chat/completions对话接口,如需使用其他接口,您可选择CURL命令原始输出的方式通过 curl 、SDK 调试。

    image

    image

  2. 当配置一个匹配上述模型前缀但错误的名称,如deepseek-abc,此时阿里云百炼不存在该模型。因此会触发 Fallback ,调用到PAI DeepSeek。

    image