一键部署DeepSeek-V3.2模型

模型简介

2025121日,DeepSeek新开源了两款新模型,DeepSeek-V3.2DeepSeek-V3.2-Speciale,在推理能力上全球领先。

两款模型有着不同的定位。DeepSeek-V3.2的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用智能体任务场景。9月底DeepSeek发布了实验版V3.2-Exp,此次是正式版更新。在公开推理测试中,V3.2达到了GPT-5的水平,仅略低于谷歌的Gemini3 Pro。

DeepSeek-V3.2-Speciale的目标则是“将开源模型的推理能力推向极致,探索模型能力的边界”。据介绍,SpecialeV3.2的长思考增强版,同时结合了DeepSeek-Math-V2的定理证明能力,该模型具备出色的指令跟随、严谨的数学证明与逻辑验证能力。据DeepSeek公布的数据,Speciale在多个推理基准测试中超越谷歌最先进的Gemini3 Pro。

由于DeepSeek-V3.2模型的参数量高达671B,本地难以直接部署模型,云端部署成为企业用户和开发者们部署的优先选择。

阿里云PAI-Model Gallery已接入DeepSeek-V3.2、DeepSeek-V3.2-Speciale模型,提供企业级部署方案。

部署步骤

  1. PAI-Model Gallery模型广场找到DeepSeek-V3.2模型,或通过链接直达该模型:https://pai.console.aliyun.com/#/quick-start/models/DeepSeek-V3.2/introimage

  2. 在模型详情页右上角点击「部署」,平台支持SGLang、vLLM部署框架。平台提供多种部署模板,内置默认配置,只需选择模板和计算资源,即可一键完成模型的云上部署,操作十分简便。

    说明

    部署资源要求如下:

    • 公共资源部署
      使用公共资源时仅支持资源列表中的规格进行部署。在灵骏分布式部署场景下,服务会使用相同资源部署多个节点。

    • EAS资源组、资源配额部署

      服务在非分布式部署时需要8*141G显存计算资源。灵骏分布式部署场景,部署所需节点数已经预先加载,每个节点需要配置8*GPU资源。

    imageimage

  3. 部署成功后,在服务页面可以点击“查看调用信息”获取调用的EndpointToken,想了解服务调用方式可以点击预训练模型链接,返回模型介绍页查看调用方式说明。image

  4. 使用推理服务:您可以在本地或使用各类客户端直接调用模型服务,也可以使用PAI平台提供的在线调试功能,此外您还可以使用PAI平台提供的WebUI界面与模型进行交互。可以参考使用文档:调用模型

更多模型支持

PAI-Model Gallery持续提供开源社区热门模型的快速部署、微调、蒸馏、评测实践,模型覆盖通义千问、通义万相、DeepSeek、Kimi、MiniMax、GLM等优秀开源模型,同时还提供Qwen3-235B-A22B-PAI-optimized、Qwen3-Next-80B-A3B-Instruct-FP8-PAI-optimized、DeepSeek-R1-0528-PAI-optimizedPAI优化版本模型,内置了PAI优化版的EP+PD分离部署等模板,性能更优。