0代码,2种方式,一键部署DeepSeek系列模型

DeepSeek凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度和广泛的用户基础。DeepSeek-R1-Distill是使用DeepSeek-R1生成的样本对开源模型进行蒸馏得到的小模型,拥有更小参数规模,推理成本更低,基准测试同样表现出色。云原生应用开发平台 CAP提供模型服务、应用模板两种部署方式辅助您部署DeepSeek R1系列模型。完成模型部署后,您可以与模型进行对话体验,或以API形式进行调用,接入AI应用中。

支持的模型列表

部署方式说明:

Ollama:轻量级推理框架,专注于量化模型部署及各种开源LLM部署。

Transformer:由Hugging Face提供的模型推理框架,支持 PyTorch、TensorFlow 等主流深度学习框架的模型部署。

模型

部署方式

最低配置

DeepSeek-R1-Distill-Qwen-1.5B

Transformer

Tesla 16GB

DeepSeek-R1-Distill-Qwen-7B

Transformer

Tesla 16GB

DeepSeek-R1-Distill-Llama-8B

Transformer

Tesla 16GB

DeepSeek-R1-Distill-Qwen-14B

Transformer

Ada 48GB

DeepSeek-R1-Distill-Qwen-32B

Transformer

Ada 48GB

DeepSeek-R1-Distill-Qwen-1.5B-GGUF

Ollama

Tesla 8GB

DeepSeek-R1-Distill-Qwen-7B-GGUF

Ollama

Tesla 16GB

DeepSeek-R1-Distill-Llama-8B-GGUF

Ollama

Tesla 16GB

DeepSeek-R1-Distill-Qwen-14B-GGUF

Ollama

Ada 48GB

DeepSeek-R1-Distill-Qwen-32B-GGUF

Ollama

Ada 48GB

前置准备

  1. 首次使用云原生应用开发平台 CAP会自动跳转到访问控制快速授页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台

  2. 本教程在函数计算中创建的GPU函数,函数运行使用的资源按照函数规格乘以执行时长进行计量,如果无请求调用,则只收取闲置预留模式下预置的快照费用,CAP中的极速模式等同于函数计算的闲置预留模式。建议您领取函数计算的试用额度抵扣资源消耗,超出试用额度的部分将自动转为按量计费,更多计费详情,请参见计费概述

部署说明

本文通过应用模板和模型服务两种方式部署DeepSeeK服务,这两种方式支持的模型列表的是相同的,您可以通过以下任一方式部署DeepSeek蒸馏模型至函数计算。

方式一:应用模板部署:基于云原生应用开发平台 CAP的模板进行一键部署,部署方式简单快捷。但是由于基于模板进行部署,初次部署使用模板默认提供的DeepSeek-R1-Distill-Qwen-7B模型,导致无法自选模型。部署完成后,可在基础配置中更改模型。

方式二:模型服务部署:在部署的时候可以灵活选择模型,但是操作步骤相对较多,在部署时,需要灵活选择模型参数,有可能配置参数输入错误导致部署失败。

方式一:应用模板部署

1. 创建项目

登录函数计算3.0控制台,在左侧导航栏选择应用,在应用页面选择CAP 应用平台页签,然后单击创建项目 > 基于模板创建

说明

当左上角显示函数计算FC 3.0时,表示当前控制台为3.0控制台。

image

2. 部署模板

  1. 在搜索栏输入DeepSeek进行搜索,单击基于 DeepSeek-R1 构建AI 聊天助手,进入模板详情页,单击立即部署

    image

    image

  2. 选择地域,单击部署项目,在项目资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,部署过程大约持续 10 分钟左右,状态显示已部署表示部署成功。

    说明
    • 选择地域时,一般是就近选择地域信息,如果已经开启了NAS文件系统,选择手动配置模型存储时,请选择和文件系统相同的地域。

    • 如果您在测试调用的过程中遇到部署异常或模型拉取失败,可能是当前地域的GPU显卡资源不足,建议您更换地域进行重试。

    image

    image

3. 验证应用

部署完毕后,点击Open-WebUI服务,在访问地址内找到公网访问单击访问。

image

image

方式二:模型服务部署

本文将以DeepSeek-R1-Distill-Qwen-7B-GGUF模型为例演示部署流程。使用API形式进行模型调用,接入线上业务应用。

1. 创建空白项目

登录函数计算3.0控制台,在左侧导航栏选择应用,在应用页面选择CAP 应用平台页签,然后单击创建项目 > 创建空白项目

说明

当左上角显示函数计算FC 3.0时,表示当前控制台为3.0控制台。

image

image

2. 选择模型服务

image

3. 部署模型服务

  1. 选择模型DeepSeek-R1-Distill-Qwen-7B-GGUF。

    image

  2. 单击资源配置,DeepSeek-R1-Distill-Qwen-7B-GGUF推荐使用Tesla系列,可直接使用默认配置。您可以根据业务诉求填写需要的卡型及规格信息。

    image

  3. 单击预览并部署,在服务资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,该阶段需下载模型,预计等待10分钟左右即可完成。

    image

    image

4. 尝试更多模型部署

  1. 如果您希望部署更多模型,但是支持列表中没有,您可以选择更多模型来源

    image

  2. 您可以选择更多模型,支持的模型列表请参见支持的模型列表,假设您选择DeepSeek-R1-Distill-Qwen-7B-GGUF模型,其参考信息如下。

    配置名称

    ModelScope ID

    lmstudio-community/DeepSeek-R1-Distill-Qwen-7B-GGUF

    执行框架

    Ollama

    模型加载方式

    单文件加载

    GGUF 文件

    DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf

    image

  3. 您可以登录ModelScope官网获取相关模型 ID、GGUF文件。以DeepSeek 14B为例,如希望部署14B模型可将配置改为以下参数。

    配置名称

    ModelScope ID

    lmstudio-community/DeepSeek-R1-Distill-Qwen-14B-GGUF

    GGUF 文件

    DeepSeek-R1-Distill-Qwen-14B-Q4_K_M.gguf

    在下图中,其中①表示为ModelScope ID的值,②表示为GGUF 文件,列表为不同的量化精度型文件,根据需求任选其一即可。

    image

    更多ollama参数配置如params,template 等,可参考DeepSeek ollama library。14B及以上模型需在资源配置中使用Ada系列显卡,并且使用全卡预留48G显存。

5. 验证模型服务

单击调试,即可测试和验证相关模型调用。

image

lQLPJxF27Kk6I83NA27NA8KwgdJV2l5C1jkHio2Ik9RCAA_962_878

在本地命令行窗口中验证模型调用。

image

6. 第三方平台 API 调用

您可以选择在Chatbox等其他第三方平台中验证和应用模型调用,以下以Chatbox为例。

image

image

删除项目

您可以使用以下步骤删除应用,以降低产生的费用。

  1. 进入项目详情 > 点击删除,会进入到删除确认对话框。

    image

  2. 您可以看到要删除的资源。默认情况下,云原生应用开发平台 CAP会删除项目下的所有服务。如果您希望保留资源,可以取消勾选指定的服务,删除项目时只会删除勾选的服务。

    image

  3. 勾选我已知晓:删除该项目及选中的服务将立刻中断其所服务的线上业务,并且不可恢复,同时将彻底删除其所依赖的云产品资源,然后单击确定删除