PAI-PPU-V1.5.2 官方镜像 Release Note
镜像概述
为方便客户快速在PAI Serverless上启用ml.gp7vf.16.40xlarge资源(真武810E),PPU发布了PAI-PPU官方镜像,集成PPU、高网、PAI等各层能力,提供开箱即用的体验和最优的性能表现。
注意事项
PAI-PPU训练镜像仅支持在PAI平台内(包含DSW、DLC、EAS等模块)使用。
PAI-PPU推理镜像仅支持在PAI-EAS中使用,不支持其他环境。
本次官方镜像更新不包含驱动更新,PAI-PPU-V1.5.2镜像推荐使用1.5.0版本驱动。
本次官方镜像暂不支持DeepEP和sailSHMEM,支持时间待定。
重要:本次训练镜像更新后,使用aiext-pypi源,请确保DSW/DLC实例使用RAM角色启动,并确保客户主账号UID已经加白(账号加白,请联系您的客户经理或PAI PDSA)。DSW/DLC以RAM角色启动方式:
DSW设置RAM角色

DLC设置RAM角色

主要更新
支持区域:乌兰察布、北京、上海、杭州。
更新PPU SDK至1.5.2版本,内容详见PPU SDK v1.5.2 release note(暂不支持DeepEP和sailSHMEM功能)。
EIC SDK本次暂无更新。
重要:训练镜像使用PIP源更新至aiext-pypi.mirrors.aliyuncs.com,相比原art-pub.eng.t-head.cn源,特点如下:
不再需要username/password,但需主账号加白,加白方式与PPU文档库一致,(账号加白,请联系您的客户经理或PAI PDSA)。
原生支持VPC内网访问(100段地址),无需再配置Private Link。
推理镜像仍使用t-head源。
推理镜像再次更新acext算子库,针对DeepSeek-R1-int8和Qwen3-235B-A22B-int8模型,推理性能有较大幅度更新,具体性能数据待更新。
其他重要更新:
修复了Megatron-LM 训练保存 torch_dist 格式权重会出现 hang 的问题。
修复了vLLM推理引擎开启prefix-cache后模型推理出现乱回复的 bug。
修复了非 PPU 环境编译 vllm 时出现 "Failed to create /dev/alixpu node" 错误日志的问题。
镜像内容
训练镜像
pai-pg1-training-1.5.2-ubuntu | pai-pg1-training-1.5.2-ubuntu-latest | |
适用场景 | CUDA 12.3 + PyTorch 2.4 | CUDA 12.6 + PyTorch 2.6.0 |
操作系统 | Ubuntu 22.04 | Ubuntu 24.04 |
PPU SDK版本 | 1.5.2 | 1.5.2 |
EIC SDK版本 | 1.3.7.1-v2504.3 | 1.3.7.1-v2504.3 |
兼容CUDA版本 | 12.3 | 12.6 |
Python版本 | 3.10 | 3.12 |
Pytorch版本 | 2.4.0 | 2.6.0 |
Open-MMLab组件版本 |
|
|
获取方式 |
推理镜像
vllm:0.8.5-xpu1.5.2 | sglang:0.4.6.post1-xpu1.5.2 | |
适用场景 | vllm 0.8.5,集成acext算子库 | sglang 0.4.6.post1,集成acext算子库 |
操作系统 | Ubuntu 24.04 | Ubuntu 24.04 |
PPU SDK版本 | 1.5.2 | 1.5.2 |
EIC SDK版本 | 1.3.7.1-v2504.3 | 1.3.7.1-v2504.3 |
兼容CUDA版本 | 12.6 | 12.6 |
Python版本 | 3.12 | 3.12 |
Pytorch版本 | 2.6.0 | 2.6.0 |
推理引擎版本 | vllm 0.8.5 | sglang 0.4.6.post1 |
已验证模型 | DeepSeek-R1/V3、Qwen3 | DeepSeek-R1/V3、Qwen3 |
获取地址 |
上述大模型推理镜像仅支持在PAI-EAS中使用,不支持在DSW、DLC中使用,建议方式:
使用“pai-pg1-training-1.5.2-ubuntu-latest”镜像,可支持在DSW、DLC、EAS中使用,根据使用的操作系统通过pip安装最新版本vllm/sglang:
pip install vllm pip install sglang
获取方式
PAI内直接获取
在PAI的工作空间中,切换到“镜像”界面,可以看到PAI官方镜像列表,即可查看PAI-PPU官方镜像。

在PAI中各子产品中新建实例,例如新建DSW实例,可以选择官方镜像,通过“芯片类型”即可快速筛选出PAI-PPU官方镜像。

通过Model Gallery使用推理镜像
在Model Gallery中,在部署界面中,选择“单机-GP7V机型”部署方式,即可使用PAI-PPU系列推理镜像。


已知问题
本系列镜像尚不支持PPU版本DeepEP和sailSHMEM。
vLLM推理镜像运行Qwen2.5-omni时会出现“ModuleNotFoundError: No module named 'vllm.vllm_flash_attn.layers' ”,此问题由vLLM 0.8.5社区已知问题触发,待PPU版本vLLM版本更新后修复。